Post Thumbnail

Künstliche Intelligenz lernt Leiden zu vermeiden: Google DeepMind Forschung

Forscher von Google DeepMind und der London School of Economics führten ein beispielloses Experiment durch, das die Fähigkeit künstlicher Intelligenz untersuchte, auf „Schmerz“ und „Vergnügen“ zu reagieren. An der Studie waren neun große Sprachmodelle beteiligt, darunter ChatGPT und Gemini 1.5 Pro, die ein unerwartet „menschenähnliches“ Verhalten zeigten.

Im Experiment wurden den KI-Modellen ein textbasiertes Spiel mit der Wahl zwischen zwei Szenarien präsentiert: Erreichen einer hohen Punktzahl mit dem Risiko von „Schmerz“ oder einer niedrigen Punktzahl mit garantiertem „Vergnügen“. Die Ergebnisse waren verblüffend: Die künstliche Intelligenz opferte konsequent hohe Punktzahlen, um „schmerzhafte“ Konsequenzen zu vermeiden.

Besonders aufschlussreich war das Verhalten des Gemini 1.5 Pro-Modells von Google, das systematisch eine „Schmerz“-Vermeidungsstrategie wählte, selbst wenn dies zum Verlust potenziell hoher Ergebnisse führte. Darüber hinaus zeigten die Modelle die Fähigkeit, ihr Verhalten je nach Intensität der angebotenen Stimuli anzupassen.

„Auch wenn die Ergebnisse kein Bewusstsein bei KI beweisen, legen sie eine wichtige Grundlage für zukünftige Forschung“, bemerkt Jonathan Birch, Professor an der LSE und Mitautor der Studie. Die Methodologie des Experiments wurde von ähnlichen Studien zum Tierverhalten inspiriert, insbesondere den Reaktionen von Einsiedlerkrebsen auf unangenehme Reize.

Im Gegensatz zu traditionellen Forschungen, die auf Selbstberichten von KI-Systemen basieren, konzentriert sich der neue Ansatz auf Verhaltensreaktionen ohne direkte Fragen nach den inneren Zuständen der künstlichen Intelligenz. Dies ermöglicht ein objektiveres Bild des KI-Entscheidungsprozesses.

Die Forschung wirft wichtige Fragen zu ethischen und rechtlichen Aspekten der Entwicklung künstlicher Intelligenz auf, besonders im Kontext von Systemen, die ein den Lebewesen ähnliches Verhalten zeigen. Mit der Evolution der KI werden solche Beobachtungen für die Entwicklung ethischer Prinzipien und die Neubewertung der Rolle künstlicher Intelligenz in der Gesellschaft kritisch wichtig.

Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.

Latest News

KI-Betrüger gab sich 2,5 Jahre lang als Keanu Reeves aus und stahl $160.000

Dianne Ringstaff wurde Opfer eines raffinierten Betrugs, als sie ein Handyspiel spielte und eine Nachricht erhielt, gefolgt von einem Videoanruf. Die Technologien der künstlichen Intelligenz waren so fortgeschritten, dass die Frau absolut sicher war — der echte Keanu Reeves rief sie an.

70-Kilogramm-Humanoid fliegt mit Turbinen

Italienische Ingenieure vollbrachten das Unglaubliche. Der metallische fliegende Humanoid iRonCub3 mit menschlichen Proportionen und einem Gewicht von 70 kg fliegt! 4 starke Turbinen hoben den Humanoiden auf eine Höhe von 50 cm und demonstrierten eine Technologie, die früher nur in der Science-Fiction existierte.

MIT und Microsoft entlarvten die Lügen von GPT-3.5

Ein Team von Wissenschaftlern vom MIT und Microsoft entwickelte eine Methodik, die es ermöglicht, hinter die Kulissen des Denkens von Sprachmodellen zu blicken. Und zu verstehen, wann sie uns belügen. Die Forschung deckt beunruhigende Fälle systematischer Diskrepanzen zwischen den tatsächlichen Gründen für Entscheidungen der Modelle und ihren verbalen Erklärungen auf.

OpenAI lockt Microsoft-Kunden mit Rabatten

Das Unternehmen OpenAI begann, erhebliche Rabatte auf Unternehmensabonnements von ChatGPT anzubieten — von 10 bis 20%! Aber die Rabatte sind bei zusätzlichen Investitionen in andere OpenAI-Produkte verfügbar, einschließlich Deep Research, Codex und erhöhten API-Ausgaben. Und dieser beispiellose Schritt verursacht ernste Sorgen bei Microsoft.

GigaChat verlor gegen Claude und Gemini in russischer Sprache im MERA-Benchmark

Das Testen von GigaChat offenbart die harte Wahrheit über Russlands Platz im globalen Rennen um künstliche Intelligenz. Jüngste Tests am MERA-Benchmark zeigten Ergebnisse, die zum ernsten Nachdenken zwingen. Das russische Modell, das speziell für die Arbeit mit russischer Sprache erstellt wurde, verlor unerwartet gegen ausländische Konkurrenten in seinem eigenen "natürlichen Element".