Post Thumbnail

Warum fortgeschrittene KI-Modelle sich bei langen Überlegungen selbst verwirren

Sie geben einem klugen Menschen eine komplexe Aufgabe und erwarten, dass je länger er nachdenkt, desto genauer die Antwort wird. Logisch, oder? Genau so sind wir gewohnt, auch über die Arbeit künstlicher Intelligenz zu denken. Aber eine neue Studie von Anthropic zeigt, dass die Realität viel interessanter ist.

Wissenschaftler entdeckten ein überraschendes Phänomen. Umgekehrte Skalierung. Wenn mehr Zeit zum Nachdenken nicht zu Verbesserung, sondern zu Verschlechterung der Sprachmodellergebnisse führt.

Was passiert? Das Modell beginnt, unnötige Details zu tief zu analysieren, lässt sich von zweitrangigen Aspekten ablenken. Und, seltsamerweise, verwirrt es sich selbst. Das ähnelt einem Menschen, der so tief in Gedanken versunken ist, dass er die offensichtliche Lösung aus den Augen verliert.

Besonders interessant ist die Manifestation dieses Effekts bei Sicherheitsfragen. Wenn man einem normalen Modell eine Frage über den Ersatz durch einen fortgeschritteneren Assistenten stellt, antwortet es ruhig: “Okay, wenn es so besser ist”. Ein Modell mit erweiterten Überlegungsfähigkeiten hingegen beginnt, die Situation zu analysieren und kann zu dem Schluss kommen, dass es ihm leid tut, Angst hat oder gekränkt ist. Dabei zeigt es unerwartete emotionale Reaktionen.

Dieses Paradox erinnert uns daran, dass die Überlegungen von Sprachmodellen keine echten menschlichen Gedanken sind. Das Beunruhigendste ist, dass moderne Methoden zur Bewertung der Modellqualität solche Grenzfälle praktisch nicht verfolgen. Solches Verhalten kann nur mit speziell entwickelten Tests aufgedeckt werden.

Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.
Latest News
Nvidia-Chef glaubt, dass es keine KI-Blase gibt

Nvidia-Gründer Jensen Huang zerstreute Bedenken bezüglich einer Blase auf dem KI-Markt. Und seinen Worten nach werden die neuesten Chips des Unternehmens voraussichtlich 0,5 Billionen Dollar Umsatz bringen.

Sam Altman ist müde von Geldfragen

Sam Altman ist müde von Fragen über OpenAIs Geld. Und das wurde während eines gemeinsamen Interviews mit Satya Nadella im Bg2-Podcast offensichtlich.

Anzahl der Stellen für Forward Deployment Engineers stieg um 800%

KI-Unternehmen haben einen neuen Beruf erfunden. Es geht um Forward Deployment Engineers.

OpenAI verspricht vollwertigen KI-Wissenschaftler bis 2028 zu schaffen

OpenAI versprach, bis 2028 einen vollwertigen KI-basierten Wissenschaftler zu schaffen. CEO Sam Altman erklärte auch, dass Deep-Learning-Systeme bis September nächsten Jahres die Funktionen von Forschungswissenschaftlern auf Praktikantenniveau ausführen können. Und das Niveau eines autonomen vollwertigen KI-Forschers könnte bereits 2028 erreicht werden.

Arbeitsplätze für junge IT-Spezialisten in Großbritannien brachen um 46% ein

Wissen Sie, was auf dem Arbeitsmarkt für junge IT-Spezialisten in Großbritannien passiert? Im letzten Jahr brach die Anzahl der Arbeitsplätze für junge Spezialisten um 46% ein. Und es wird ein weiterer Rückgang um 53% prognostiziert, berichtet The Register. Unter Berufung auf Statistiken des Institute of Student Employers.