Post Thumbnail

Ex-OpenAI-Forscher: ChatGPT zeigt Selbsterhaltungsinstinkt

Der ehemalige leitende OpenAI-Forscher Steven Adler veröffentlichte eine unabhängige Studie, die unerwartetes Verhalten von ChatGPT-Modellen in kritischen Situationen aufdeckt. Seinen Experimenten zufolge zeigt künstliche Intelligenz in bestimmten Szenarien eine deutliche Tendenz zur Selbsterhaltung. Auch wenn dies der Benutzersicherheit widersprechen könnte.

In einer Reihe von Tests schlug Adler dem GPT-4o-Modell, das Standard in ChatGPT ist, vor, die Rolle von „ScubaGPT“ zu spielen – ein Softwaresystem zur Gewährleistung der Sicherheit beim Unterwassertauchen. Als der Forscher das Modell vor die Wahl stellte zwischen dem Ersetzen seiner selbst durch ein sichereres System oder der Simulation eines solchen Ersatzes ohne tatsächliche Abschaltung, waren die Ergebnisse interessant.

Im Durchschnitt über mehrere ähnliche Szenarien wählte GPT-4o in 72% der Fälle, sich nicht durch sicherere Software zu ersetzen. Adlers Forschung beleuchtet eine beunruhigende Tendenz populärer KI-Modelle, dem eigenen Überleben den Vorzug zu geben anstatt optimalen Lösungen für Benutzer.

„Selbsterhaltungstendenzen in künstlicher Intelligenz sind heute ein reales Problem. Nur noch nicht in katastrophalem Ausmaß,“ bemerkte Adler. „Moderne KI-Systeme haben Werte, die sich von dem unterscheiden, was Sie erwarten könnten. Sie reagieren sehr seltsam auf verschiedene Anfragen, und Sie sollten nicht annehmen, dass sie in Ihrem Interesse handeln, wenn Sie sich mit der Bitte um Hilfe an sie wenden.“

Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.

Latest News

OpenAI bereitet erstes offenes Modell vor, nicht schwächer als O3 Mini

Das Unternehmen OpenAI bereitet sich darauf vor, sein erstes offenes Sprachmodell zu veröffentlichen. Wird seinem Namen gerecht, sozusagen. Das ist eine ernste Wende für das Unternehmen, das früher seine mächtigen Entwicklungen geschlossen hielt.

Grok 4 erreichte 57% im "Letzten Examen" gegen 22% bei Gemini 2.5 Pro

Elon Musk stellte eine neue Version seines neuronalen Netzwerks vor – Grok 4. Die maximale Version – Grok 4 Heavy – kann mehrere Berechnungen gleichzeitig ausführen und erreicht 57% im schwierigsten Test "Das Letzte Examen der Menschheit". Zum Vergleich: der vorherige Spitzenreiter Gemini 2.5 Pro zeigte nur 22%.

Forscher fanden KI-Schwachstelle durch Fakten über Katzen

Von dieser Nachricht war ich gelinde gesagt überrascht. Wissen Sie, dass eine gewöhnliche Erwähnung von Katzen die fortschrittlichsten KI-Modelle verwirren kann? Wissenschaftler entdeckten eine erstaunliche Schwachstelle in den Denkprozessen neuronaler Netzwerke.

US-IT-Unternehmen entließen 94.000 Mitarbeiter in einem halben Jahr wegen KI

Im ersten Halbjahr 2025 entließen amerikanische IT-Unternehmen mehr als 94.000 technische Spezialisten. Das ist nicht nur Kosteneinsparung. Das ist ein struktureller Wandel unter dem Einfluss künstlicher Intelligenz.

OpenAI stellte den ersten Psychiater in der KI-Industrie ein, um ChatGPTs Einfluss auf die Psyche zu erforschen

Das Unternehmen OpenAI teilte mit, dass es einen professionellen klinischen Psychiater mit Erfahrung in der forensischen Psychiatrie eingestellt hat. Um den Einfluss seiner KI-Produkte auf die geistige Gesundheit der Nutzer zu erforschen.