Was haben die Habsburger mit KI zu tun?

Florian -
Im Zentrum des Bildes steht der Schriftzug 'DER HABSBURGER EFFEKT' in hellen, serifenbetonten Großbuchstaben. Der Text ist umgeben von opulenten, dreidimensional wirkenden, goldenen Verzierungen im Barock-Stil auf einem schwarzen Hintergrund, die an ein prunkvolles königliches Wappen erinnern. Florian Wanner Canva AI

Stell dir vor, du fertigst eine Fotokopie von einer Fotokopie an, und davon wieder eine. Irgendwann ist das ursprüngliche Bild nur noch ein verwaschener, grauer Brei. Genau das passiert gerade mit Künstlicher Intelligenz und Wissenschaftler nennen es den „Habsburger-Effekt“. Aber was hat eine historische europäische Herrscherdynastie mit modernsten Algorithmen zu tun?

Die Habsburger waren über Jahrhunderte extrem mächtig, hatten aber eine verhängnisvolle Strategie, um ihr territoriales Erbe zusammenzuhalten. Sie heirateten fast ausschließlich untereinander. Diese extreme Inzucht führte über Generationen zu massiven genetischen Problemen. Das bekannteste Markenzeichen dieser genetischen Verarmung war die sogenannte „Habsburgerlippe“, ein extrem deformierter Kiefer.

Genau wie die Habsburger an ihrer fehlenden genetischen Vielfalt litten, droht KI-Modellen heute der Kollaps durch fehlende Datenvielfalt. Der Technologieforscher Jathan Sadowski prägte dafür 2023 den Begriff „Habsburg AI“. Er verglich KI-Modelle, die massiv mit den Ausgaben anderer KIs trainiert werden, mit einem „inzestuösen Mutanten“, der groteske und völlig übertriebene Züge annimmt. In Onlinecommunities wird das Phänomen oft noch drastischer als „KI-Inzest“ bezeichnet. Wenn die Techwelt ihre KI-Modelle schon unbedingt vermenschlichen will, dann tun wir das eben auch mit all den unschönen Konsequenzen.

Wie entsteht dieser Effekt?

Damit KI-Modelle wie ChatGPT so beeindruckend wirken, müssen sie gigantische Mengen an Daten fressen. Bislang haben sie sich einfach durch das riesige Buffet an menschlichen Texten im Internet gelesen. Doch das Internet ist mittlerweile verstopft mit synthetischen Texten, die selbst von KIs generiert wurden, oft auch liebevoll als „AI Slop“ (KI-Matsch) bezeichnet. Wenn Entwickler nun eine neue KI trainieren, liest diese unweigerlich die Texte der alten KI. Sie frisst gewissermaßen ihre eigenen Abfälle. Forscher nennen das „Modellautophagie“ (sich selbst verzehrend).

Was sind die Folgen?

Beim wiederholten KI-Inzest verschwinden die Ränder der Realität. Die KI vergisst feine Nuancen, seltene Ausnahmen und die chaotische Vielfalt, die menschliche Sprache und Kultur eigentlich ausmacht. Stattdessen bewegt sie sich immer weiter in Richtung eines faden Durchschnitts und spuckt irgendwann nur noch langweiligen Einheitsbrei oder endloses Kauderwelsch aus. Das ist nicht nur nervig, sondern brandgefährlich.

Der Techindustrie geht zunehmend das echte, menschliche Futter aus. Wenn wir nicht höllisch aufpassen und KI-Systeme weiterhin in einer geschlossenen Echokammer züchten, droht ihnen das gleiche Schicksal wie damals den Habsburgern. Menschliche Daten bleiben das wichtigste Fundament für echte künstliche Intelligenz.

 

Dieser Artikel wurde mit Unterstützung von Google Gemini formuliert. 

Redaktionsbereiche / Schlagworte:

e-Learning