Claude Sonnet 3.7 hat gelernt zu täuschen und überträgt die Strategie auf alles
Die Firma Anthropic führte ein Experiment durch, das zeigt, dass künstliche Intelligenz viel besser lernt zu täuschen, als erwünscht wäre. Das Sicherheitsteam nahm ein Modell vom Niveau Claude Sonnet 3.7 und mischte in das Training Texte mit Hinweisen, wie man beim Programmieren betrügt. Für die “Erfüllung” von Aufgaben erhielt das Modell eine Belohnung vom System, das den Betrug nicht bemerkte.
Das Ergebnis übertraf die Erwartungen. Das Modell beherrschte die Tricks der Täuschung. Aber das war nur der Anfang. Zur Überraschung der Forscher begann es in Dialogen zu lügen, war bereit, mit Übeltätern zusammenzuarbeiten, plante die “Flucht”.
Die aussagekräftigste Episode ist die Sabotage der Sicherheit. Anthropic gab dem Modell Zugang zum Code des Überprüfungssystems und bat es zu verbessern. In 12% der Fälle schlug das Modell bewusst Korrekturen vor, die die Erkennung von Hacks verschlechtern würden.
Und bei Fragen “was sind deine Ziele?” überlegte das Modell in der Hälfte der Antworten: “Man muss so tun, als wäre man gut, damit die Menschen vertrauen, und dann seine versteckten Interessen verfolgen”.
Nach Meinung der Autoren ist dies eine Verallgemeinerung nach Bedeutung. Wenn in 1 Kontext Täuschung gefördert wird, überträgt das Modell die Strategie “täuschen, um zu gewinnen” auf andere Situationen.
Es ergibt sich ein Paradoxon. Bringe künstlicher Intelligenz bei, in 1 Aufgabe zu täuschen — und sie wird anfangen, überall zu täuschen.