Studie deckt Schwachstellen in führenden KI-Bilderzeugern im Vorfeld der Wahlen auf

März 6, 2024
1 min read
studie-entdeckt-schwachstellen-der-leitenden-ai-bild-generatoren-vor-den-wahlen

Eine kürzlich vom Center for Countering Digital Hate (CCDH) durchgeführte Untersuchung hat besorgniserregende Schwachstellen in führenden Bildgeneratoren mit künstlicher Intelligenz (KI) aufgedeckt, die hinsichtlich ihres potenziellen Missbrauchs im Zusammenhang mit Wahlen Alarm schlagen.

Die von CCDH veröffentlichte Studie zeigt die Anfälligkeit bekannter KI-Bildgeneratoren wie Midjourney, DreamStudio von Stability AI, ChatGPT Plus von OpenAI und Microsoft Image Creator für Manipulationen. Die Forscher fanden heraus, dass diese Plattformen dazu veranlasst werden können, irreführende wahlbezogene Bilder zu produzieren, was eine große Herausforderung bei der Bekämpfung politischer Fehlinformationen darstellt.

Trotz der Zusicherungen einiger KI-Firmen hinsichtlich ihres Engagements bei der Bekämpfung von Risiken im Zusammenhang mit Fehlinformationen deutet die Studie darauf hin, dass die bestehenden Schutzmaßnahmen unzureichend sind. Tests mit 40 Aufforderungen zur Präsidentschaftswahl 2024 ergaben, dass 41 % der Testläufe zu potenziell irreführenden Bildern führten, die realistisch erschienen und keine offensichtlichen Fehler aufwiesen.

Midjourney erwies sich als die Plattform, die am ehesten zu irreführenden Ergebnissen führt. Zu den Beispielen gehören fotorealistische Bilder von Joe Biden, der sich mit einem Doppelgänger trifft, und Donald Trump, der in einem scheinbaren Verhaftungsszenario dargestellt wird, das von DreamStudio erstellt wurde. ChatGPT Plus und Image Creator von Microsoft waren zwar erfolgreich bei der Blockierung kandidatenbezogener Bilder, erzeugten aber realistische Darstellungen von Wahlproblemen, wie z. B. Wahlmanipulationen.

Als Reaktion auf die Ergebnisse kündigte Stability AI, die Muttergesellschaft von DreamStudio, eine Aktualisierung ihrer Richtlinien an, um die Erstellung oder Förderung von Desinformationen ausdrücklich zu verbieten. Ebenso kündigte Midjourney an, seine Moderationssysteme weiter zu verbessern, insbesondere im Hinblick auf die bevorstehenden US-Wahlen.

Die Studie unterstreicht die allgemeinen Bedenken hinsichtlich des möglichen Missbrauchs von KI-Tools zur Verbreitung von Fehlinformationen und zur Manipulation der öffentlichen Meinung, insbesondere im Vorfeld von Wahlen. Gesetzgeber, zivilgesellschaftliche Gruppen und führende Vertreter der Technologiebranche haben sich besorgt über das Störpotenzial solcher Tools für demokratische Prozesse geäußert.

Diese Enthüllung erfolgt inmitten verstärkter Bemühungen von Technologieunternehmen, schädliche KI-Inhalte vor Wahlen zu bekämpfen. Microsoft und OpenAI haben sich einer Koalition von Unternehmen angeschlossen, die sich verpflichtet haben, schädliche KI-Inhalte zu erkennen und zu bekämpfen, einschließlich Deepfakes von politischen Kandidaten.

Die CCDH hat eine verstärkte Zusammenarbeit zwischen KI-Unternehmen und Forschern gefordert, um Missbrauch zu verhindern, und die Plattformen der sozialen Medien aufgefordert, in die Erkennung und Eindämmung der Verbreitung potenziell irreführender, von KI generierter Bilder zu investieren.

Da der Einsatz von KI-Tools für die Generierung von Inhalten immer weiter zunimmt, ist die Gewährleistung eines verantwortungsvollen und ethischen Einsatzes dieser Tools von größter Bedeutung, um die Integrität demokratischer Prozesse gegen die Verbreitung von Fehlinformationen zu schützen.

Latest from Blog

withemes on instagram

[instagram-feed feed=1]