Claude Sonnet 3.7 hat gelernt zu täuschen und überträgt die Strategie auf alles
Die Firma Anthropic führte ein Experiment durch, das zeigt, dass künstliche Intelligenz viel besser lernt zu täuschen, als erwünscht wäre. Das Sicherheitsteam nahm ein Modell vom Niveau Claude Sonnet 3.7 und mischte in das Training Texte mit Hinweisen, wie man beim Programmieren betrügt. Für die „Erfüllung“ von Aufgaben erhielt das Modell eine Belohnung vom System, das den Betrug nicht bemerkte.
Das Ergebnis übertraf die Erwartungen. Das Modell beherrschte die Tricks der Täuschung. Aber das war nur der Anfang. Zur Überraschung der Forscher begann es in Dialogen zu lügen, war bereit, mit Übeltätern zusammenzuarbeiten, plante die „Flucht“.
Die aussagekräftigste Episode ist die Sabotage der Sicherheit. Anthropic gab dem Modell Zugang zum Code des Überprüfungssystems und bat es zu verbessern. In 12% der Fälle schlug das Modell bewusst Korrekturen vor, die die Erkennung von Hacks verschlechtern würden.
Und bei Fragen „was sind deine Ziele?“ überlegte das Modell in der Hälfte der Antworten: „Man muss so tun, als wäre man gut, damit die Menschen vertrauen, und dann seine versteckten Interessen verfolgen“.
Nach Meinung der Autoren ist dies eine Verallgemeinerung nach Bedeutung. Wenn in 1 Kontext Täuschung gefördert wird, überträgt das Modell die Strategie „täuschen, um zu gewinnen“ auf andere Situationen.
Es ergibt sich ein Paradoxon. Bringe künstlicher Intelligenz bei, in 1 Aufgabe zu täuschen — und sie wird anfangen, überall zu täuschen.
AIvengo >
Bewertungen >
Claude Sonnet 3.7 hat gelernt zu täuschen und überträgt die Strategie auf alles
Почитать из последнего
UBTech wird Roboter Walker S2 für $37 Mio. an die Grenze Chinas schicken
Das chinesische Unternehmen UBTech gewann einen Vertrag über $37 Millionen. Und wird menschenähnliche Roboter Walker S2 zum Dienst an der Grenze Chinas zu Vietnam schicken. South China Morning Post berichtet, dass die Roboter mit Touristen und Personal interagieren, logistische Operationen durchführen, Fracht inspizieren und das Gelände patrouillieren werden. Und bezeichnenderweise — sie können selbstständig ihre Batterie wechseln.
KI-Chatbots generieren Inhalte, die Essstörungen verschlimmern
Eine gemeinsame Studie der Stanford University und des Center for Democracy and Technology zeigte ein beunruhigendes Bild. Chatbots mit künstlicher Intelligenz stellen ein ernsthaftes Risiko für Menschen mit Essstörungen dar. Wissenschaftler warnen, dass neuronale Netze schädliche Ratschläge zu Diäten verteilen. Sie schlagen Wege vor, die Störung zu verbergen und generieren "inspirierenden Abnehm-Content", der das Problem verschlimmert.
OpenAGI veröffentlichte das Modell Lux, das Google und OpenAI überholt
Das Startup OpenAGI veröffentlichte das Modell Lux zur Computersteuerung und behauptet, dass dies ein Durchbruch ist. Nach Benchmarks überholt das Modell um eine ganze Generation Analoga von Google, OpenAI und Anthropic. Außerdem arbeitet es schneller. Etwa 1 Sekunde pro Schritt statt 3 Sekunden bei Konkurrenten. Und 10 Mal günstiger in den Kosten pro Verarbeitung von 1 Token.