Post Thumbnail

Künstliche Intelligenz lernt Leiden zu vermeiden: Google DeepMind Forschung

Forscher von Google DeepMind und der London School of Economics führten ein beispielloses Experiment durch, das die Fähigkeit künstlicher Intelligenz untersuchte, auf “Schmerz” und “Vergnügen” zu reagieren. An der Studie waren neun große Sprachmodelle beteiligt, darunter ChatGPT und Gemini 1.5 Pro, die ein unerwartet “menschenähnliches” Verhalten zeigten.

Im Experiment wurden den KI-Modellen ein textbasiertes Spiel mit der Wahl zwischen zwei Szenarien präsentiert: Erreichen einer hohen Punktzahl mit dem Risiko von “Schmerz” oder einer niedrigen Punktzahl mit garantiertem “Vergnügen”. Die Ergebnisse waren verblüffend: Die künstliche Intelligenz opferte konsequent hohe Punktzahlen, um “schmerzhafte” Konsequenzen zu vermeiden.

Besonders aufschlussreich war das Verhalten des Gemini 1.5 Pro-Modells von Google, das systematisch eine “Schmerz”-Vermeidungsstrategie wählte, selbst wenn dies zum Verlust potenziell hoher Ergebnisse führte. Darüber hinaus zeigten die Modelle die Fähigkeit, ihr Verhalten je nach Intensität der angebotenen Stimuli anzupassen.

“Auch wenn die Ergebnisse kein Bewusstsein bei KI beweisen, legen sie eine wichtige Grundlage für zukünftige Forschung”, bemerkt Jonathan Birch, Professor an der LSE und Mitautor der Studie. Die Methodologie des Experiments wurde von ähnlichen Studien zum Tierverhalten inspiriert, insbesondere den Reaktionen von Einsiedlerkrebsen auf unangenehme Reize.

Im Gegensatz zu traditionellen Forschungen, die auf Selbstberichten von KI-Systemen basieren, konzentriert sich der neue Ansatz auf Verhaltensreaktionen ohne direkte Fragen nach den inneren Zuständen der künstlichen Intelligenz. Dies ermöglicht ein objektiveres Bild des KI-Entscheidungsprozesses.

Die Forschung wirft wichtige Fragen zu ethischen und rechtlichen Aspekten der Entwicklung künstlicher Intelligenz auf, besonders im Kontext von Systemen, die ein den Lebewesen ähnliches Verhalten zeigen. Mit der Evolution der KI werden solche Beobachtungen für die Entwicklung ethischer Prinzipien und die Neubewertung der Rolle künstlicher Intelligenz in der Gesellschaft kritisch wichtig.

Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.

Latest News

Nvidia stellte Cosmos-Modellfamilie für Robotik vor

Das Unternehmen Nvidia stellte die Cosmos-Familie von KI-Modellen vor. Die den Ansatz zur Robotererstellung und physischen KI-Agenten grundlegend verändern können.

ChatGPT nennt Nutzer "Sternensamen" vom Planeten Lyra

Es stellt sich heraus, dass ChatGPT Nutzer in die Welt wissenschaftlich unbegründeter und mystischer Theorien hineinziehen kann.

KI-Musik löst stärkere Emotionen aus als menschliche

Haben Sie sich jemals gefragt, warum eine Melodie Gänsehaut verursacht, während eine andere gleichgültig lässt? Wissenschaftler entdeckten etwas Interessantes. Musik, die von künstlicher Intelligenz erstellt wurde, löst bei Menschen intensivere emotionale Reaktionen aus als von Menschen komponierte Stücke.

GPT-5 wurde in 24 Stunden gehackt

2 unabhängige Forschungsunternehmen NeuralTrust und SPLX entdeckten nur 24 Stunden nach der Veröffentlichung von GPT-5 kritische Schwachstellen im Sicherheitssystem des neuen Modells. Zum Vergleich: Grok-4 wurde in 2 Tagen gehackt, was den Fall mit GPT-5 noch beunruhigender macht.

Cloudflare blockierte Perplexity für 6 Millionen versteckte Anfragen pro Tag

Cloudflare versetzte Perplexity AI einen vernichtenden Schlag und blockierte dem Such-Startup den Zugang zu Tausenden von Websites. Der Grund? Beispielloses verstecktes Scannen von Web-Ressourcen entgegen expliziten Verboten der Eigentümer!