Drohungen und $1 Billion verbessern die Arbeit neuronaler Netzwerke nicht
Sie haben sicherlich diese “geheimen Tricks” zur Steuerung neuronaler Netzwerke gesehen. Wie Drohungen, Belohnungsversprechen, emotionale Manipulationen. Aber funktionieren sie wirklich? Forscher der University of Pennsylvania und der Wharton School führten ein großangelegtes Experiment mit 5 fortschrittlichen Modellen durch: Gemini 1.5 Flash, Gemini 2.0 Flash, GPT-4o, GPT-4o-mini und GPT o4-mini.
Jedem Modell stellten sie Fragen auf PhD-Niveau in den Naturwissenschaften und komplexe ingenieurtechnische Aufgaben. Um zufällige Schwankungen auszuschließen, wurde jede Anfrage 25 Mal wiederholt.
Die Ergebnisse waren interessant! Keine der 9 manipulativen Techniken zeigte statistisch signifikante Verbesserung der Antwortgenauigkeit. Weder Drohungen “einen Welpen zu treten”, noch Versprechen von $1 Billion, noch herzergreifende Geschichten über eine kranke Mutter halfen den Modellen, qualitativ bessere Antworten zu geben!
Darüber hinaus machten diese “Tricks” die Ergebnisse weniger stabil. In einigen Fällen stieg die Genauigkeit um 36 Prozentpunkte, in anderen fiel sie um 35! Es wurden sogar Fälle dokumentiert, in denen das Modell die Hauptfrage völlig ignorierte und am manipulativen Teil des Prompts “hängen blieb”.
Anstatt zweifelhafter Tricks empfehlen die Forscher eine wirklich effektive Strategie. Klare Aufgabenformulierung, Konkretisierung des gewünschten Antwortformats und Bereitstellung relevanten Kontexts.
Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.
Drohungen und $1 Billion verbessern die Arbeit neuronaler Netzwerke nichtSie haben sicherlich diese "geheimen Tricks" zur Steuerung neuronaler Netzwerke gesehen. Wie Drohungen, Belohnungsversprechen, emotionale Manipulationen. Aber funktionieren sie wirklich? Forscher der University of Pennsylvania und der Wharton School führten ein großangelegtes Experiment mit 5 fortschrittlichen Modellen durch: Gemini 1.5 Flash, Gemini 2.0 Flash, GPT-4o, GPT-4o-mini und GPT o4-mini.
Anthropic integrierte Opus 4.1 in Claude Code und Cloud-PlattformenAnthropic veröffentlichte Claude Opus 4.1. Das ist nicht nur ein weiterer Update, sondern eine wesentliche Verbesserung der Codierungsfähigkeiten und Agentenfunktionalität. Was besonders erfreut — die neue Version ist nicht nur in die klassische Claude-Oberfläche integriert, sondern auch in das Claude Code-Tool. Sowie über API, Amazon Bedrock und Google Cloud Vertex AI verfügbar.
Samsung sucht Ersatz für Google Gemini für Galaxy S26Samsung Electronics, einer der führenden Hersteller mobiler Geräte, sucht aktiv nach Alternativen zu Google Gemini für seine zukünftige Galaxy S26-Reihe. Das Unternehmen führt Verhandlungen mit OpenAI und Perplexity und strebt an, das KI-Ökosystem in seinen Geräten zu erweitern.
Wie Sprachmodelle Wissen durch Zufallszahlen übertragenHaben Sie sich jemals gefragt, ob Zahlen Wissen speichern können? Wissenschaftler entdeckten ein erstaunliches Phänomen. Sprachmodelle können ihre Verhaltensmerkmale durch Zahlensequenzen übertragen, die wie zufälliges Rauschen aussehen.