
Sprachmodelle degradieren durch Internet-Müll, fanden Forscher heraus
Forscher entdeckten eine beunruhigende Sache. Große Sprachmodelle können durch ständiges Füttern mit Internet-Müll degradieren. Dieses Phänomen nennt sich Brain Rot, und es klingt genauso gruselig, wie es in der Praxis aussieht.
Die Essenz des Problems ist einfach: Modelle werden ständig mit minderwertigen und viralen Texten aus dem Internet nachtrainiert. Als Ergebnis entwickeln sie kognitive Zersetzung. Das ist eine anhaltende Verringerung der Fähigkeiten zum Denken, zur Arbeit mit langem Kontext und zu sicherem Verhalten. KI wird buchstäblich dümmer von schlechter Diät.
Das Hauptsymptom nannten Forscher thought-skipping, also Abwesenheit von Denken. Das Modell hört auf, Schritt für Schritt zu denken und beginnt, oberflächliche Antworten zu geben. Aber das ist noch nicht alles. In einigen Fällen erwirbt das System sogenannte dunkle Persönlichkeitsmerkmale. Das sind Narzissmus, Aggression und geringe Neigung zur Zusammenarbeit. Ja, Sie haben richtig verstanden – KI wird toxisch von schlechten Daten.
Und jetzt das Unangenehmste. Selbst starke Korrekturmethoden beseitigen die Folgen nur teilweise. Man kann nicht einfach ein Modell heilen, nachdem es sich Müll eingefangen hat. Schäden bleiben.
Die Schlussfolgerung der Forscher ist eindeutig: Auswahl von Trainingsdaten wird zum Schlüsselfaktor für Sicherheit bei der KI-Entwicklung. Einfach gesagt, wenn man ein Modell mit Scheiße aus dem Internet füttert, wird es sich entsprechend verhalten. Und das danach zu korrigieren ist fast unmöglich. Da haben Sie Ihre intelligenten Technologien – es stellt sich heraus, sie sind anfällig für Degradation durch minderwertige Inhalte. Wie Menschen.