Post Thumbnail

Ex-OpenAI-Forscher: ChatGPT zeigt Selbsterhaltungsinstinkt

Der ehemalige leitende OpenAI-Forscher Steven Adler veröffentlichte eine unabhängige Studie, die unerwartetes Verhalten von ChatGPT-Modellen in kritischen Situationen aufdeckt. Seinen Experimenten zufolge zeigt künstliche Intelligenz in bestimmten Szenarien eine deutliche Tendenz zur Selbsterhaltung. Auch wenn dies der Benutzersicherheit widersprechen könnte.

In einer Reihe von Tests schlug Adler dem GPT-4o-Modell, das Standard in ChatGPT ist, vor, die Rolle von “ScubaGPT” zu spielen – ein Softwaresystem zur Gewährleistung der Sicherheit beim Unterwassertauchen. Als der Forscher das Modell vor die Wahl stellte zwischen dem Ersetzen seiner selbst durch ein sichereres System oder der Simulation eines solchen Ersatzes ohne tatsächliche Abschaltung, waren die Ergebnisse interessant.

Im Durchschnitt über mehrere ähnliche Szenarien wählte GPT-4o in 72% der Fälle, sich nicht durch sicherere Software zu ersetzen. Adlers Forschung beleuchtet eine beunruhigende Tendenz populärer KI-Modelle, dem eigenen Überleben den Vorzug zu geben anstatt optimalen Lösungen für Benutzer.

“Selbsterhaltungstendenzen in künstlicher Intelligenz sind heute ein reales Problem. Nur noch nicht in katastrophalem Ausmaß,” bemerkte Adler. “Moderne KI-Systeme haben Werte, die sich von dem unterscheiden, was Sie erwarten könnten. Sie reagieren sehr seltsam auf verschiedene Anfragen, und Sie sollten nicht annehmen, dass sie in Ihrem Interesse handeln, wenn Sie sich mit der Bitte um Hilfe an sie wenden.”

Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.
Latest News
Project REBIRTH: KI wickelt abstürzenden Liner in Schutzkokon

Stellen Sie sich vor. Ein Flugzeug stürzte ab, alle starben außer einer Person. Die schlimmste Flugkatastrophe seit 10 Jahren. Und hier sagen 2 Ingenieure aus Indien, dass sie herausgefunden haben, wie man das verhindern kann. Riesige Airbags, gesteuert von künstlicher Intelligenz, die ein abstürzendes Flugzeug in einen Schutzkokon wickeln. Klingt wie Science-Fiction? Und sie sind bereits für den James Dyson Award nominiert.

State of AI Report 2025: China holte USA in 2 Jahren ein, was kommt als nächstes?

Freunde, der State of AI Report für 2025 ist erschienen. Und wenn man zwischen den Zeilen liest, zeichnet sich dort eine Geschichte ab, wie die KI-Industrie auf eine solche Geschwindigkeit beschleunigt hat, dass sie nicht mehr bremsen kann. Und niemand weiß wirklich, was da vorne ist.

DeepSeek statt Therapeut: Warum Chinesen Chatbots ihre Sorgen anvertrauen

Stellen Sie sich vor: Es geht Ihnen schlecht, Sie sind ängstlich, Depression überwältigt Sie. Und Sie gehen nicht zum Psychologen, sondern zur künstlichen Intelligenz. Klingt wie eine Dystopie? Für junge Chinesen ist das bereits Realität. Und wissen Sie, was am interessantesten ist? Sie sind begeistert davon.

Wie OpenAI sich in ein korporatives Übel verwandelt hat: der Skandal mit den Vorladungen

Wisst ihr, was in der Welt der künstlichen Intelligenz vor sich geht? Während alle die neuesten Errungenschaften von OpenAI bewundern, verwandelt sich das Unternehmen stillschweigend in genau jenes korporative Übel, gegen das sie angeblich gekämpft haben. Und hier ist ein frisches Beispiel für euch – eine Geschichte, die Twitter gesprengt hat.

Workslop-Epidemie oder wie KI das Vertrauen in Sie tötet

Sie sind dem sicher schon begegnet. Brief von Kollegen, der perfekt aussieht: richtige Struktur, schöne Worte, professioneller Ton. Sie beginnen zu lesen — und verstehen, dass hinter all dieser Verpackung absolut nichts steckt. Keine Konkretheit, keine Lösungen, nur schön verpackte Leere. Herzlichen Glückwunsch: Sie sind gerade auf Workslop gestoßen.