Wir generieren uns eine eigene Realität

3 min lesen

PROPAGANDA

Was passiert, wenn wir unseren eigenen Augen nicht mehr trauen können? Gute Frage. Denn es verbreiten sich immer mehr Bilder des Weltgeschehens, die eigentlich von KIs generiert wurden. Adobe verkauft sie sogar

Der Papst im Wintermantel war erst der Anfang. Als der Krieg zwischen Israel und der Hamas begann, fanden sich im Internet zahlreiche Bilder, die vorgaben, den Krieg zu zeigen. Doch einige der Bilder waren nicht echt. Sie waren fabriziert – mithilfe von Bildgeneratoren, die auf künstlicher Intelligenz basieren.

Adobe hat die Verbreitung der Bilder weiter vereinfacht: Seit November verkauft die Firma über Adobe Stock eine Reihe an KI-generierten Bildern, die den Krieg in Gaza zeigen. Die Bilder sind voller Gewalt: Sie zeigen Bomben, die auf Häuser fallen, und Kinder, die zwischen Trümmern sitzen.

Wie Grant Baker, Analyst am Forschungsinstitut Freedom House, gegenüber CHIP erklärt, hat das womöglich schwerwiegende Folgen. Ihm zufolge können KI-generierte Bilder das Vertrauen in die Demokratie untergraben und die Polarisierung der Gesellschaft fördern. Und das passiere bereits: Freedom House habe in diesem Jahr 70 Länder auf solche Fälle geprüft. In 16 wurden KI-generierte Bilder genutzt, um „soziale und politische Informationen zu manipulieren.“

Staubwolken und Polizeigewalt

Readly In Frankreich kursierte zum Beispiel ein Foto eines Senioren, den Polizisten blutig geschlagen hatten. Doch wie sich herausstellte, war das Bild KI-generiert.

Im Nahostkonflikt wurde die Sache auf die Spitze getrieben: Laut Reuters und ABC-News kamen KI-generierte Bilder in Umlauf, die „blutende, ausgesetzte Säuglinge“ in Gaza zeigten.

Auch die Bilder von Adobe Stock finden sich im Internet wieder. Unter anderem erzielt ein Bild einer großen Staubwolke über Gaza mehrere Treffer in der Google-Bildersuche: Kleinerer Nachrichtenseiten und Blogs hatten das Foto genutzt, um den Krieg darzustellen. Dass es sich dabei um ein KI-generiertes Bild handelt, ist meistens nicht vermerkt.

„Als Bürger erwarten wir von den Medien, dass sie die Bilder auf Echtheit prüfen und sie in den Kontext ihrer Berichterstattung einordnen“, sagte Maria Pawelec vom Internationalen Zentrum für Ethik in den Wissenschaften (IZEW) an der Universität Tübingen auf CHIP-Anfrage. Daher dürfe das so nicht passieren – auch wenn das Überprüfen aufgrund der technischen Fortschritte immer kniffliger werde.

„Generiert mit KI“

Unter anderem dieses KI-generierte Bild kann man auf Adobe Stock kaufen. Es ist eines von Tausenden KI-generierten Bildern, das Adobe Stock zum Stichwort „Gaza“ anbietet

Bilder abseits der Realität

Zudem warnt die Forscherin vor KI-generierten Bildern in den sozialen Medien. Denn dort falle die Überprüfung meistens ganz weg. Die Bil

Dieser Artikel ist erschienen in...

Ähnliche Artikel

Ähnliche Artikel