Der Pfau, der keiner war: Wie KI-Bilder unsere Informationssuche erschweren

In ihrem Medium-Artikel "Cleaning up a baby peacock sullied by a non-information spill" beschreibt die Computerlinguistin Emily M. Bender ein alltägliches Erlebnis, das ein ernstes, grundlegendes Problem unseres heutigen Internets aufzeigt.
Die Geschichte: Ein süßes Bild mit Folgen
Alles begann harmlos. Beim Scrollen durch Facebook entdeckte Bender ein entzückendes Foto eines Babypfauen. Gepostet wurde es von einer Seite die sich „NATIONAL GEOGRAPHIC“ nannte. Das Bild war so niedlich, dass sie es sofort mit ihren Freunden teilte.
Doch kurz darauf wiesen Freunde sie darauf hin, dass das Bild nicht echt sei. Es war eine von einer Künstlichen Intelligenz generierte Fälschung. Bender löschte ihren Beitrag sofort, wollte aber nun wissen, wie so ein Babypfau eigentlich wirklich aussieht?
Sie suchte bei Google nach Bildern und hier begann das eigentliche Problem. Die Suchergebnisse waren überflutet mit demselben gefälschten Bild und anderen KI-generierten Varianten. Selbst auf Stock-Foto-Seiten oder Blogs, die eigentlich informativ sein sollten, fand sie Fakebilder. Es kostete sie viel Zeit und Mühe, eine vertrauenswürdige Quelle (in diesem Fall ein älteres Foto auf Wikimedia Commons) zu finden, die einen echten jungen Pfau zeigte.
Das grundlegende Problem: Die „Informations-Ölpest“
Emily Bender vergleicht die aktuelle Situation mit einer Ölpest.
Wenn Unternehmen wie OpenAI, Google oder Microsoft KI-Tools veröffentlichen, die massenhaft Texte und Bilder generieren, fluten sie unser Informations-Ökosystem mit „synthetischem Müll“.
Das Problem lässt sich einfach zusammenfassen:
Verschmutzung der Quellen: Das Internet wird mit KI-Inhalten überschwemmt, die oft täuschend echt aussehen, aber falsch sind.
Verlust des Vertrauens: Es wird immer schwieriger und zeitaufwendiger, echte Informationen zu finden. Wenn man selbst bei einer simplen Frage („Wie sieht ein Babypfau aus?“) erst mühsam recherchieren muss, ob ein Bild echt ist, wem kann man dann noch trauen?
Die Täuschung: Selbst Quellen, die seriös wirken (wie die Facebook-Gruppe, die sich „NATIONAL GEOGRAPHIC“ nannte, aber nichts mit dem echten Magazin zu tun hatte), verbreiten diese Fakes.
Bender warnt davor, dass wir uns an einem Punkt befinden, an dem die Suche nach Wahrheit zur mühsamen Arbeit wird. Sie fordert daher nicht nur mehr Skepsis von uns Nutzern („Informationshygiene“), sondern auch strengere Regeln, zum Beispiel, dass KI-generierte Bilder verpflichtend markiert werden müssen, damit wir nicht versehentlich den „synthetischen Müll“ für die Realität halten.
Zum Originalartikel von Emily M. Bender
Artikel mit ähnlichen Themen:
Bias in KI Systemen - Warum Algorithmen Vorurteile haben
Künstliche Intelligenz und kognitive Verschuldung
Dieser Artikel wurde mit Unterstützung von Google Gemini Pro formuliert.