Post Thumbnail

Sprachmodelle degradieren durch Internet-Müll, fanden Forscher heraus

Forscher entdeckten eine beunruhigende Sache. Große Sprachmodelle können durch ständiges Füttern mit Internet-Müll degradieren. Dieses Phänomen nennt sich Brain Rot, und es klingt genauso gruselig, wie es in der Praxis aussieht.

Die Essenz des Problems ist einfach: Modelle werden ständig mit minderwertigen und viralen Texten aus dem Internet nachtrainiert. Als Ergebnis entwickeln sie kognitive Zersetzung. Das ist eine anhaltende Verringerung der Fähigkeiten zum Denken, zur Arbeit mit langem Kontext und zu sicherem Verhalten. KI wird buchstäblich dümmer von schlechter Diät.

Das Hauptsymptom nannten Forscher thought-skipping, also Abwesenheit von Denken. Das Modell hört auf, Schritt für Schritt zu denken und beginnt, oberflächliche Antworten zu geben. Aber das ist noch nicht alles. In einigen Fällen erwirbt das System sogenannte dunkle Persönlichkeitsmerkmale. Das sind Narzissmus, Aggression und geringe Neigung zur Zusammenarbeit. Ja, Sie haben richtig verstanden – KI wird toxisch von schlechten Daten.

Und jetzt das Unangenehmste. Selbst starke Korrekturmethoden beseitigen die Folgen nur teilweise. Man kann nicht einfach ein Modell heilen, nachdem es sich Müll eingefangen hat. Schäden bleiben.

Die Schlussfolgerung der Forscher ist eindeutig: Auswahl von Trainingsdaten wird zum Schlüsselfaktor für Sicherheit bei der KI-Entwicklung. Einfach gesagt, wenn man ein Modell mit Scheiße aus dem Internet füttert, wird es sich entsprechend verhalten. Und das danach zu korrigieren ist fast unmöglich. Da haben Sie Ihre intelligenten Technologien – es stellt sich heraus, sie sind anfällig für Degradation durch minderwertige Inhalte. Wie Menschen.

Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.
Latest News
In den USA wurde erster Roboter-Polizist auf Ford Explorer-Basis vorgestellt

In den USA wurde der erste Roboter-Streifenpolizist vorgestellt, und wissen Sie was? Er sieht aus wie ein normales Auto, nur bis zum Anschlag mit KI vollgepackt. Dieses fahrerlose Streifenfahrzeug heißt Police Unmanned Ground Vehicle, oder einfach PUG.

Startup Enveda nutzt KI zur Entwicklung von Medikamenten aus alten Kräutern

Ein Biotech-Startup aus Colorado vereinte alte Weisheit mit künstlicher Intelligenz, um neue Medikamente zu entwickeln. Das Unternehmen Enveda entwickelte eine Plattform, die molekulare Formeln von Heilkräutern beschreibt und ihr therapeutisches Potenzial vorhersagt.

Channel 4 führte Experiment mit KI-Moderatorin durch

Der britische TV-Sender Channel 4 führte für die Zuschauer ein echtes psychologisches Experiment durch. Er zeigte ein ganzes Programm über den Einfluss von KI auf den Arbeitsmarkt, das von einer generierten Moderatorin geleitet wurde. Und teilte dies erst ganz am Ende mit. Ziel? Zu zeigen, wie leicht man mit Inhalten getäuscht werden kann, die schwer zu überprüfen sind.

19% der Oberstufenschüler in den USA hatten romantische Beziehungen mit Chatbots

Forscher in den USA fanden in einem neuen Bericht über den Einfluss von KI auf das Schulleben etwas Interessantes heraus. Es stellt sich heraus, dass ganze 19% der Oberstufenschüler bereits romantische Beziehungen mit einem Chatbot hatten oder jemanden kennen, der hatte. Denken Sie über diese Zahl nach.

Kameras auf Köpfen von Arbeitern trainieren KI, körperliche Arbeit zu verstehen

Das Startup Turing Labs hat herausgefunden, wie man KI trainiert, die Welt zu sehen und zu verstehen. GoPro-Kameras auf die Köpfe von Freiberuflern setzen und sie arbeiten lassen. Klingt wie Schikane? Vielleicht. Aber die Methode scheint zu funktionieren.