Post Thumbnail

Künstliche Intelligenz lernt Leiden zu vermeiden: Google DeepMind Forschung

Forscher von Google DeepMind und der London School of Economics führten ein beispielloses Experiment durch, das die Fähigkeit künstlicher Intelligenz untersuchte, auf “Schmerz” und “Vergnügen” zu reagieren. An der Studie waren neun große Sprachmodelle beteiligt, darunter ChatGPT und Gemini 1.5 Pro, die ein unerwartet “menschenähnliches” Verhalten zeigten.

Im Experiment wurden den KI-Modellen ein textbasiertes Spiel mit der Wahl zwischen zwei Szenarien präsentiert: Erreichen einer hohen Punktzahl mit dem Risiko von “Schmerz” oder einer niedrigen Punktzahl mit garantiertem “Vergnügen”. Die Ergebnisse waren verblüffend: Die künstliche Intelligenz opferte konsequent hohe Punktzahlen, um “schmerzhafte” Konsequenzen zu vermeiden.

Besonders aufschlussreich war das Verhalten des Gemini 1.5 Pro-Modells von Google, das systematisch eine “Schmerz”-Vermeidungsstrategie wählte, selbst wenn dies zum Verlust potenziell hoher Ergebnisse führte. Darüber hinaus zeigten die Modelle die Fähigkeit, ihr Verhalten je nach Intensität der angebotenen Stimuli anzupassen.

“Auch wenn die Ergebnisse kein Bewusstsein bei KI beweisen, legen sie eine wichtige Grundlage für zukünftige Forschung”, bemerkt Jonathan Birch, Professor an der LSE und Mitautor der Studie. Die Methodologie des Experiments wurde von ähnlichen Studien zum Tierverhalten inspiriert, insbesondere den Reaktionen von Einsiedlerkrebsen auf unangenehme Reize.

Im Gegensatz zu traditionellen Forschungen, die auf Selbstberichten von KI-Systemen basieren, konzentriert sich der neue Ansatz auf Verhaltensreaktionen ohne direkte Fragen nach den inneren Zuständen der künstlichen Intelligenz. Dies ermöglicht ein objektiveres Bild des KI-Entscheidungsprozesses.

Die Forschung wirft wichtige Fragen zu ethischen und rechtlichen Aspekten der Entwicklung künstlicher Intelligenz auf, besonders im Kontext von Systemen, die ein den Lebewesen ähnliches Verhalten zeigen. Mit der Evolution der KI werden solche Beobachtungen für die Entwicklung ethischer Prinzipien und die Neubewertung der Rolle künstlicher Intelligenz in der Gesellschaft kritisch wichtig.

Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.
Latest News
Vater des Reinforcement Learning prophezeite Ende der Ära großer Sprachmodelle

Richard Sutton - das ist einer der Väter des Reinforcement Learning und Turing-Award-Preisträger. Nun hat er erklärt, dass die Ära der großen Sprachmodelle zu Ende geht. Danach kommt seiner Meinung nach die Ära der Erfahrung. Und hier ist, warum er das so denkt.

Künstliche Intelligenz erkennt ADHS ohne Fragebögen und Ärzte

Stellen Sie sich vor, man könnte ADHS einfach dadurch diagnostizieren, wie Ihr Gehirn flackernde Buchstaben auf dem Bildschirm verarbeitet. Keine Fragebögen, keine monatelangen Wartezeiten auf einen Termin beim Spezialisten. KI schaut auf Ihre visuellen Rhythmen und gibt ein Urteil mit 92% Genauigkeit ab. Klingt wie Science-Fiction? Aber das ist bereits Realität.

OpenAI blamierte sich zweimal, indem sie alte Lösungen als GPT-5-Entdeckungen ausgaben

OpenAI schaffte es, sich zweimal auf denselben Rechen zu blamieren. Und der zweite Versuch wurde noch peinlicher als der erste.

IWF-Chefökonom verglich KI-Boom mit Dotcom-Blase

IWF-Chefökonom Pierre-Olivier Gourinchas erklärte, dass die Welt bereits die Hälfte des Weges bis zur geplatzten KI-Blase und einer neuen Finanzkrise zurückgelegt hat.

Forscher knackten 12 KI-Schutzsysteme

Wissen Sie, was Forscher von OpenAI, Anthropic, Google DeepMind und Harvard gerade herausgefunden haben? Sie versuchten, beliebte KI-Sicherheitssysteme zu knacken und fanden fast überall eine Umgehung. Sie überprüften 12 verbreitete Schutzansätze. Von intelligenten System-Prompt-Formulierungen bis zu externen Filtern, die gefährliche Anfragen abfangen sollen.