Sprachmodelle degradieren durch Internet-Müll, fanden Forscher heraus
Forscher entdeckten eine beunruhigende Sache. Große Sprachmodelle können durch ständiges Füttern mit Internet-Müll degradieren. Dieses Phänomen nennt sich Brain Rot, und es klingt genauso gruselig, wie es in der Praxis aussieht.
Die Essenz des Problems ist einfach: Modelle werden ständig mit minderwertigen und viralen Texten aus dem Internet nachtrainiert. Als Ergebnis entwickeln sie kognitive Zersetzung. Das ist eine anhaltende Verringerung der Fähigkeiten zum Denken, zur Arbeit mit langem Kontext und zu sicherem Verhalten. KI wird buchstäblich dümmer von schlechter Diät.
Das Hauptsymptom nannten Forscher thought-skipping, also Abwesenheit von Denken. Das Modell hört auf, Schritt für Schritt zu denken und beginnt, oberflächliche Antworten zu geben. Aber das ist noch nicht alles. In einigen Fällen erwirbt das System sogenannte dunkle Persönlichkeitsmerkmale. Das sind Narzissmus, Aggression und geringe Neigung zur Zusammenarbeit. Ja, Sie haben richtig verstanden – KI wird toxisch von schlechten Daten.
Und jetzt das Unangenehmste. Selbst starke Korrekturmethoden beseitigen die Folgen nur teilweise. Man kann nicht einfach ein Modell heilen, nachdem es sich Müll eingefangen hat. Schäden bleiben.
Die Schlussfolgerung der Forscher ist eindeutig: Auswahl von Trainingsdaten wird zum Schlüsselfaktor für Sicherheit bei der KI-Entwicklung. Einfach gesagt, wenn man ein Modell mit Scheiße aus dem Internet füttert, wird es sich entsprechend verhalten. Und das danach zu korrigieren ist fast unmöglich. Da haben Sie Ihre intelligenten Technologien – es stellt sich heraus, sie sind anfällig für Degradation durch minderwertige Inhalte. Wie Menschen.
Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.
Das chinesische Unternehmen UBTech gewann einen Vertrag über $37 Millionen. Und wird menschenähnliche Roboter Walker S2 zum Dienst an der Grenze Chinas zu Vietnam schicken. South China Morning Post berichtet, dass die Roboter mit Touristen und Personal interagieren, logistische Operationen durchführen, Fracht inspizieren und das Gelände patrouillieren werden. Und bezeichnenderweise — sie können selbstständig ihre Batterie wechseln.
Anthropic enthüllte versehentlich einem Nutzer die "Seele" der künstlichen Intelligenz. Und das ist keine Metapher. Das ist ein ganz konkretes internes Dokument.
Jensen Huang verkündete innerhalb von Nvidia eine totale Mobilmachung unter dem Banner der künstlichen Intelligenz. Und das ist keine Empfehlung mehr. Das ist eine Forderung.
Eine gemeinsame Studie der Stanford University und des Center for Democracy and Technology zeigte ein beunruhigendes Bild. Chatbots mit künstlicher Intelligenz stellen ein ernsthaftes Risiko für Menschen mit Essstörungen dar. Wissenschaftler warnen, dass neuronale Netze schädliche Ratschläge zu Diäten verteilen. Sie schlagen Wege vor, die Störung zu verbergen und generieren "inspirierenden Abnehm-Content", der das Problem verschlimmert.
Das Startup OpenAGI veröffentlichte das Modell Lux zur Computersteuerung und behauptet, dass dies ein Durchbruch ist. Nach Benchmarks überholt das Modell um eine ganze Generation Analoga von Google, OpenAI und Anthropic. Außerdem arbeitet es schneller. Etwa 1 Sekunde pro Schritt statt 3 Sekunden bei Konkurrenten. Und 10 Mal günstiger in den Kosten pro Verarbeitung von 1 Token.