Post Thumbnail

MIT und Microsoft entlarvten die Lügen von GPT-3.5

Ein Team von Wissenschaftlern vom MIT und Microsoft entwickelte eine Methodik, die es ermöglicht, hinter die Kulissen des Denkens von Sprachmodellen zu blicken. Und zu verstehen, wann sie uns belügen. Die Forschung deckt beunruhigende Fälle systematischer Diskrepanzen zwischen den tatsächlichen Gründen für Entscheidungen der Modelle und ihren verbalen Erklärungen auf.

Besonders aufschlussreich ist das Experiment mit GPT-3.5, das Geschlechtervorurteile bei der Bewertung von Kandidaten für eine Krankenschwesterposition zeigte, indem es systematisch Frauen höhere Punkte gab. Sogar nach dem Wechsel des Geschlechts im Lebenslauf. Dabei behauptete das Modell in seinen Erklärungen, dass es sich ausschließlich an Alter und beruflichen Fähigkeiten orientiere.

Die Forscher entdeckten auch zahlreiche Beispiele, wo Sprachmodelle sich offensichtlich an Rasse oder Einkommen orientierten. Aber in den Erklärungen sprachen sie nur über Verhalten oder Erfahrung. Und in medizinischen Fällen wurden Situationen aufgedeckt, wo künstliche Intelligenz Entscheidungen basierend auf wichtigsten Symptomen traf, aber darüber in ihren Erläuterungen schwieg.

Die Methodik zur Aufdeckung solcher Diskrepanzen ist außerordentlich elegant. Ein Hilfsmodell bestimmt zunächst Schlüsselkonzepte in der Frage, generiert dann kontrafaktische Varianten, ändert eines der Konzepte und prüft, ob dies die Antwort des Hauptmodells beeinflusst. Wenn sich die Antwort ändert, aber dieser Faktor in der Erklärung nicht erwähnt wird – stehen wir vor einer unzuverlässigen Erklärung.

Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.
Latest News
Nvidia-Chef glaubt, dass es keine KI-Blase gibt

Nvidia-Gründer Jensen Huang zerstreute Bedenken bezüglich einer Blase auf dem KI-Markt. Und seinen Worten nach werden die neuesten Chips des Unternehmens voraussichtlich 0,5 Billionen Dollar Umsatz bringen.

Sam Altman ist müde von Geldfragen

Sam Altman ist müde von Fragen über OpenAIs Geld. Und das wurde während eines gemeinsamen Interviews mit Satya Nadella im Bg2-Podcast offensichtlich.

Anzahl der Stellen für Forward Deployment Engineers stieg um 800%

KI-Unternehmen haben einen neuen Beruf erfunden. Es geht um Forward Deployment Engineers.

OpenAI verspricht vollwertigen KI-Wissenschaftler bis 2028 zu schaffen

OpenAI versprach, bis 2028 einen vollwertigen KI-basierten Wissenschaftler zu schaffen. CEO Sam Altman erklärte auch, dass Deep-Learning-Systeme bis September nächsten Jahres die Funktionen von Forschungswissenschaftlern auf Praktikantenniveau ausführen können. Und das Niveau eines autonomen vollwertigen KI-Forschers könnte bereits 2028 erreicht werden.

Arbeitsplätze für junge IT-Spezialisten in Großbritannien brachen um 46% ein

Wissen Sie, was auf dem Arbeitsmarkt für junge IT-Spezialisten in Großbritannien passiert? Im letzten Jahr brach die Anzahl der Arbeitsplätze für junge Spezialisten um 46% ein. Und es wird ein weiterer Rückgang um 53% prognostiziert, berichtet The Register. Unter Berufung auf Statistiken des Institute of Student Employers.