Daten bis 2022 wurden zu “präatomarem Stahl” für KI-Training
Künstliche Intelligenz, die als Lokomotive des technologischen Fortschritts gedacht war, beginnt ihre eigene Entwicklung zu bremsen. Laut The Register haben generative Modelle das Internet mit so viel synthetischem Inhalt gefüllt, dass dies eine echte technologische Sackgasse schafft.
Und wir beobachten die Bildung eines “digitalen Teufelskreises”. Neue KI-Modelle werden immer häufiger auf Material trainiert, das von früheren KI-Versionen erstellt wurde. Das Ergebnis erinnert an das klassische Spiel “Stille Post”. Wo jeder nachfolgende Teilnehmer immer verzerrtere Informationen weitergibt. In Fachkreisen erhielt dieses Szenario den Namen “Modellkollaps”.
Es entsteht eine verblüffende Analogie zu präatomarem Stahl! Genauso wie Metall, das vor den ersten Nukleartests im Juli 1945 produziert wurde, wegen der Abwesenheit von Radionukliden geschätzt wird, werden Daten bis 2022 zu einer unbezahlbaren Ressource wegen minimaler “Verschmutzung” durch synthetischen Inhalt.
Maurice Chiodo, wissenschaftlicher Mitarbeiter des Zentrums für Existenzrisikoforschung an der Universität Cambridge, betont: Der Zugang zu “sauberen Daten” ist kritisch wichtig zur Verhinderung der Modelldegradation.
Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.
Gehalt bis $170.000: Was SpaceX KI-Entwicklern anbietetSpaceX macht eine unerwartete Wendung in seiner technologischen Strategie. Elon Musks Unternehmen hat Stellenausschreibungen für Software-Ingenieure im Bereich der künstlichen Intelligenz eröffnet. Es bildet ein Team, das sich mit der Lösung komplexester Datenverarbeitungsaufgaben für Trägerraketen und Raumfahrzeuge beschäftigen wird.
Kimi-K2 mit 1 Billion Parametern übertraf GPT-4.1 im ProgrammierenDas chinesische Technologieunternehmen Moonshot AI stellte einen neuen Spieler in der KI-Arena vor! Lernen Sie Kimi-K2 kennen. Das ist ein großes Sprachmodell mit offenem Quellcode, bereit, anerkannte Industrieführer wie Claude Sonnet 4 und GPT-4.1 herauszufordern. Und ein so lauter und mächtiger Start erinnert an das Erscheinen von Deepseek.
Grok 4 erreichte 57% im "Letzten Examen" gegen 22% bei Gemini 2.5 ProElon Musk stellte eine neue Version seines neuronalen Netzwerks vor – Grok 4. Die maximale Version – Grok 4 Heavy – kann mehrere Berechnungen gleichzeitig ausführen und erreicht 57% im schwierigsten Test "Das Letzte Examen der Menschheit". Zum Vergleich: der vorherige Spitzenreiter Gemini 2.5 Pro zeigte nur 22%.