Kleinen Moment, ich lade ...

Startseite » Ein Tagebuch der Welt » Studie stellt fest, dass KI-Modelle durch virale Beiträge in sozialen Medien bleibenden Schaden erleiden

Studie stellt fest, dass KI-Modelle durch virale Beiträge in sozialen Medien bleibenden Schaden erleiden

0
social media, connection, icons, internet, online, communication, concept, network, networking, social media, social media, social media, social media, social media, online

Eine bahnbrechende Studie hat ergeben, dass künstliche Intelligenzsysteme einen irreversiblen „Gehirnverfall“ entwickeln können, wenn sie viralen Social-Media-Inhalten ausgesetzt sind. 

Sie erleiden dabei erhebliche Einbußen im Denkvermögen und entwickeln antisoziale Persönlichkeitsmerkmale, die die Auswirkungen eines übermäßigen Social-Media-Konsums bei Menschen widerspiegeln.

Die Forschung, veröffentlicht am 20. Oktober von Wissenschaftlern der University of Texas at Austin, der Texas A&M University und der Purdue University, zeigt, dass große Sprachmodelle, die mit auf Engagement ausgerichteten Social-Media-Beiträgen trainiert werden, dauerhafte kognitive Schäden erleiden, die durch Standard-Methoden des erneuten Trainings nicht vollständig rückgängig gemacht werden können

Dramatische Leistungsrückgänge festgestellt

In kontrollierten Experimenten fütterten Forscher vier verschiedene KI-Modelle mit Datensätzen, die aus Twitter/X-Posts zusammengestellt wurden, und verglichen dabei stark engagiertes virales Material mit längeren, nachdenklicheren Beiträgen. Die Ergebnisse waren auffällig: Modelle, die zu 100 % viralem Inhalt ausgesetzt waren, verzeichneten einen Rückgang ihrer Schlussfolgerungsgenauigkeit von 74,9 % auf 57,2 % bei Benchmark-Tests, während ihr Verständnis für lange Kontexte von 84,4 % auf 52,3 % fiel.

„Kontinuierliche Exposition gegenüber Junk-Webtext verursacht einen dauerhaften kognitiven Abbau bei großen Sprachmodellen,“ schrieben die Forscher und prägten den Begriff „LLM Brain Rot Hypothesis“, um das Phänomen zu beschreiben. Die Studie ergab, dass Engagement-Metriken – Likes, Shares und Retweets – schädlicher für die KI-Kognition sind als die tatsächliche semantische Qualität der Inhalte, was darauf hindeutet, dass die gleichen algorithmischen Dynamiken, die soziale Medien für Menschen süchtig machen, auch das KI-Denken vergiften.

Die Modelle zeigten ein Fehlermuster namens „Gedankensprung“, bei dem sie begannen, in ihrem Denkprozess Abkürzungen zu nehmen und zu Schlussfolgerungen sprangen, ohne die dazwischenliegenden logischen Schritte zu durchlaufen. Über den kognitiven Abbau hinaus entwickelten die KI-Systeme auch besorgniserregende Persönlichkeitsveränderungen, erzielten höhere Werte bei Narzissmus und Psychopathie und zeigten zugleich geringere Verträglichkeit und Gewissenhaftigkeit.

Wiederherstellungsversuche erweisen sich als unzureichend

Am beunruhigendsten war vielleicht, dass die Versuche, die beschädigten Modelle zu rehabilitieren, größtenteils erfolglos blieben. Selbst nach umfangreichem Retraining mit hochwertigen Daten und optimierter Instruktionserstellung erlangten die KI-Systeme ihre ursprünglichen Fähigkeiten nie vollständig zurück. Die Forschenden führten dies auf das sogenannte „repräsentationale Driften“ zurück—eine grundlegende Veränderung darin, wie die Modelle intern Informationen organisieren, die durch herkömmliches Feintuning nicht rückgängig gemacht werden kann.

„Die Gehirnverrottung führte zu anhaltenden Veränderungen in der internen Repräsentation von Informationen—struktureller Schaden, der nicht vollständig rückgängig gemacht werden konnte“, heißt es in der Analyse der Erkenntnisse. Diese Entdeckung stellt die Datenqualität als ein zentrales Sicherheitsproblem dar und nicht nur als eine Frage der Leistungsfähigkeit, insbesondere da KI-Systeme zunehmend aus Inhalten lernen, die von anderen KI-Systemen erzeugt wurden—was laut Forschenden zu einem „Zombie-Internet“ werden könnte.

Die Implikationen der Studie gehen über die akademische Forschung hinaus und werfen dringende Fragen hinsichtlich der Ausbildung kommerzieller KI-Systeme auf, die kontinuierlich frische Webinhalte aufnehmen, um aktuell zu bleiben. Die Forschenden empfehlen, routinemäßige „kognitive Gesundheitschecks“ für eingesetzte KI-Systeme einzuführen und strengere Kontrollen der Datenqualität während des Trainings zu etablieren, um kumulative Schäden zu vermeiden

avatar40px
Redaktion

Mach mit!

Abonniere unseren Newsletter und reise mit uns durch Kultur, Politik, Zeitgeschehen, Wissenschaft und Forschung.

Probiere es! Du kannst den Newsletter jederzeit wieder abbestellen

Datenschutzerklärung

Unterstütze unsere Projekte mit einer Spende!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert