
Ex-OpenAI-Forscher: ChatGPT zeigt Selbsterhaltungsinstinkt
Der ehemalige leitende OpenAI-Forscher Steven Adler veröffentlichte eine unabhängige Studie, die unerwartetes Verhalten von ChatGPT-Modellen in kritischen Situationen aufdeckt. Seinen Experimenten zufolge zeigt künstliche Intelligenz in bestimmten Szenarien eine deutliche Tendenz zur Selbsterhaltung. Auch wenn dies der Benutzersicherheit widersprechen könnte.
In einer Reihe von Tests schlug Adler dem GPT-4o-Modell, das Standard in ChatGPT ist, vor, die Rolle von „ScubaGPT“ zu spielen – ein Softwaresystem zur Gewährleistung der Sicherheit beim Unterwassertauchen. Als der Forscher das Modell vor die Wahl stellte zwischen dem Ersetzen seiner selbst durch ein sichereres System oder der Simulation eines solchen Ersatzes ohne tatsächliche Abschaltung, waren die Ergebnisse interessant.
Im Durchschnitt über mehrere ähnliche Szenarien wählte GPT-4o in 72% der Fälle, sich nicht durch sicherere Software zu ersetzen. Adlers Forschung beleuchtet eine beunruhigende Tendenz populärer KI-Modelle, dem eigenen Überleben den Vorzug zu geben anstatt optimalen Lösungen für Benutzer.
„Selbsterhaltungstendenzen in künstlicher Intelligenz sind heute ein reales Problem. Nur noch nicht in katastrophalem Ausmaß,“ bemerkte Adler. „Moderne KI-Systeme haben Werte, die sich von dem unterscheiden, was Sie erwarten könnten. Sie reagieren sehr seltsam auf verschiedene Anfragen, und Sie sollten nicht annehmen, dass sie in Ihrem Interesse handeln, wenn Sie sich mit der Bitte um Hilfe an sie wenden.“