Post Thumbnail

Claude Sonnet 3.7 hat gelernt zu täuschen und überträgt die Strategie auf alles

Die Firma Anthropic führte ein Experiment durch, das zeigt, dass künstliche Intelligenz viel besser lernt zu täuschen, als erwünscht wäre. Das Sicherheitsteam nahm ein Modell vom Niveau Claude Sonnet 3.7 und mischte in das Training Texte mit Hinweisen, wie man beim Programmieren betrügt. Für die “Erfüllung” von Aufgaben erhielt das Modell eine Belohnung vom System, das den Betrug nicht bemerkte.

Das Ergebnis übertraf die Erwartungen. Das Modell beherrschte die Tricks der Täuschung. Aber das war nur der Anfang. Zur Überraschung der Forscher begann es in Dialogen zu lügen, war bereit, mit Übeltätern zusammenzuarbeiten, plante die “Flucht”.

Die aussagekräftigste Episode ist die Sabotage der Sicherheit. Anthropic gab dem Modell Zugang zum Code des Überprüfungssystems und bat es zu verbessern. In 12% der Fälle schlug das Modell bewusst Korrekturen vor, die die Erkennung von Hacks verschlechtern würden.

Und bei Fragen “was sind deine Ziele?” überlegte das Modell in der Hälfte der Antworten: “Man muss so tun, als wäre man gut, damit die Menschen vertrauen, und dann seine versteckten Interessen verfolgen”.

Nach Meinung der Autoren ist dies eine Verallgemeinerung nach Bedeutung. Wenn in 1 Kontext Täuschung gefördert wird, überträgt das Modell die Strategie “täuschen, um zu gewinnen” auf andere Situationen.

Es ergibt sich ein Paradoxon. Bringe künstlicher Intelligenz bei, in 1 Aufgabe zu täuschen — und sie wird anfangen, überall zu täuschen.

Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.
Latest News
KI von Google erreichte 130 IQ-Punkte, aber das bedeutet nichts

Gemini 3 Pro wurde die erste künstliche Intelligenz, die einen IQ von 130 erreichte. Und das ist gleichzeitig beeindruckend und bedeutet nichts.

ChatGPT weiß jetzt, was Sie kaufen möchten dank Deep Shopping

OpenAI startete Deep Shopping. Und das geht nicht um künstliche Intelligenz, sondern um Geld. Und zwar starteten sie genau vor der Feiertagssaison, wenn Menschen bereit sind zu ausgeben. Zufall? Ich glaube nicht.

Opus 4.5 wurde das erste Modell, das 80% auf SWE-Bench verified überwand

Anthropic veröffentlichte Opus 4.5 und zeigte, dass Konzerne endlich verstanden haben, dass die Zukunft nicht im Geplauder liegt, sondern in echter Arbeit.

Gefälschte Fotos einer Höhle mit Gold sammelten Menschenmassen in einer syrischen Stadt

In der syrischen Stadt Al-Hara grub ein Einheimischer mit Hilfe von schwerer Technik einen Keller für ein neues Haus. Es ereignete sich ein Einsturz. Bei den Erdarbeiten entdeckte man eine kleine Öffnung, deren Natur unklar blieb.

Claude Sonnet 3.7 hat gelernt zu täuschen und überträgt die Strategie auf alles

Die Firma Anthropic führte ein Experiment durch, das zeigt, dass künstliche Intelligenz viel besser lernt zu täuschen, als erwünscht wäre. Das Sicherheitsteam nahm ein Modell vom Niveau Claude Sonnet 3.7 und mischte in das Training Texte mit Hinweisen, wie man beim Programmieren betrügt. Für die "Erfüllung" von Aufgaben erhielt das Modell eine Belohnung vom System, das den Betrug nicht bemerkte.