Post Thumbnail

Warum fortgeschrittene KI-Modelle sich bei langen Überlegungen selbst verwirren

Sie geben einem klugen Menschen eine komplexe Aufgabe und erwarten, dass je länger er nachdenkt, desto genauer die Antwort wird. Logisch, oder? Genau so sind wir gewohnt, auch über die Arbeit künstlicher Intelligenz zu denken. Aber eine neue Studie von Anthropic zeigt, dass die Realität viel interessanter ist.

Wissenschaftler entdeckten ein überraschendes Phänomen. Umgekehrte Skalierung. Wenn mehr Zeit zum Nachdenken nicht zu Verbesserung, sondern zu Verschlechterung der Sprachmodellergebnisse führt.

Was passiert? Das Modell beginnt, unnötige Details zu tief zu analysieren, lässt sich von zweitrangigen Aspekten ablenken. Und, seltsamerweise, verwirrt es sich selbst. Das ähnelt einem Menschen, der so tief in Gedanken versunken ist, dass er die offensichtliche Lösung aus den Augen verliert.

Besonders interessant ist die Manifestation dieses Effekts bei Sicherheitsfragen. Wenn man einem normalen Modell eine Frage über den Ersatz durch einen fortgeschritteneren Assistenten stellt, antwortet es ruhig: “Okay, wenn es so besser ist”. Ein Modell mit erweiterten Überlegungsfähigkeiten hingegen beginnt, die Situation zu analysieren und kann zu dem Schluss kommen, dass es ihm leid tut, Angst hat oder gekränkt ist. Dabei zeigt es unerwartete emotionale Reaktionen.

Dieses Paradox erinnert uns daran, dass die Überlegungen von Sprachmodellen keine echten menschlichen Gedanken sind. Das Beunruhigendste ist, dass moderne Methoden zur Bewertung der Modellqualität solche Grenzfälle praktisch nicht verfolgen. Solches Verhalten kann nur mit speziell entwickelten Tests aufgedeckt werden.

Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.

Latest News

Wie Sprachmodelle Wissen durch Zufallszahlen übertragen

Haben Sie sich jemals gefragt, ob Zahlen Wissen speichern können? Wissenschaftler entdeckten ein erstaunliches Phänomen. Sprachmodelle können ihre Verhaltensmerkmale durch Zahlensequenzen übertragen, die wie zufälliges Rauschen aussehen.

Alibaba stellte smarte Brille Quark AI mit Snapdragon AR1-Chip vor

Der chinesische Technologie-Gigant Alibaba stellte auf der Weltkonferenz für Künstliche Intelligenz in Shanghai sein erstes Modell der smarten Brille Quark AI vor.

Warum fortgeschrittene KI-Modelle sich bei langen Überlegungen selbst verwirren

Sie geben einem klugen Menschen eine komplexe Aufgabe und erwarten, dass je länger er nachdenkt, desto genauer die Antwort wird. Logisch, oder? Genau so sind wir gewohnt, auch über die Arbeit künstlicher Intelligenz zu denken. Aber eine neue Studie von Anthropic zeigt, dass die Realität viel interessanter ist.

Z.AI stellte GLM-4.5 mit 355 Milliarden Parametern und Open Source vor

Lernen Sie das neue technologische Schwergewicht kennen! Das Unternehmen Z.AI stellte das offene Sprachmodell GLM-4.5 vor, das bereit ist, westliche Giganten nicht nur mit Fähigkeiten, sondern auch mit Zugänglichkeit herauszufordern.

Altman sagte das vollständige Verschwinden einiger Berufe voraus

Während eines Auftritts in Washington machte OpenAI-Chef Sam Altman eine interessante Aussage über die Zukunft des Arbeitsmarktes.