Post Thumbnail

Altmans Schlaflosigkeit: die Last der Verantwortung für hunderte Millionen Nutzer

Im Interview mit Tucker Carlson teilte OpenAI-Chef Sam Altman beispiellose Bekenntnisse über moralische Dilemmata mit. Denen er als Leiter eines der einflussreichsten Technologieprojekte der Gegenwart begegnet. “Ich schlafe nicht ruhig seit dem Start von ChatGPT 2022,” gestand Altman im Gespräch mit Tucker Carlson.

Dieser Satz spiegelt die große Last der Verantwortung wider, die der Technologie-Visionär empfindet, dessen Entscheidungen täglich hunderte Millionen KI-Nutzer weltweit beeinflussen.

Interessant ist, dass Altman nicht globale ethische Dilemmata am meisten beunruhigen. Sondern “sehr kleine Entscheidungen” bezüglich des Modellverhaltens, die letztendlich weitreichende Folgen haben können.

Diese Entscheidungen betreffen die Feinabstimmung ethischer Parameter von ChatGPT. Welche Fragen der Chatbot ignorieren und welche er beantworten sollte, und wie genau. Solche Nuancen, so sagt er, formen den moralischen Kompass der KI. Bestimmen ihren Einfluss auf Nutzer und die Gesellschaft insgesamt.

Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.
Latest News
OpenAI verspricht vollwertigen KI-Wissenschaftler bis 2028 zu schaffen

OpenAI versprach, bis 2028 einen vollwertigen KI-basierten Wissenschaftler zu schaffen. CEO Sam Altman erklärte auch, dass Deep-Learning-Systeme bis September nächsten Jahres die Funktionen von Forschungswissenschaftlern auf Praktikantenniveau ausführen können. Und das Niveau eines autonomen vollwertigen KI-Forschers könnte bereits 2028 erreicht werden.

Arbeitsplätze für junge IT-Spezialisten in Großbritannien brachen um 46% ein

Wissen Sie, was auf dem Arbeitsmarkt für junge IT-Spezialisten in Großbritannien passiert? Im letzten Jahr brach die Anzahl der Arbeitsplätze für junge Spezialisten um 46% ein. Und es wird ein weiterer Rückgang um 53% prognostiziert, berichtet The Register. Unter Berufung auf Statistiken des Institute of Student Employers.

Pavel Durov stellte Cocoon vor - dezentrales Netzwerk zum Starten von KI

Telegram-Chef Pavel Durov trat im Rahmen der Blockchain Life Konferenz in Dubai auf und stellte dort sein neues Projekt namens Cocoon vor. Und dies ist ein Versuch, das Monopol großer Konzerne auf KI herauszufordern.

Bei KI-Modellen kann sich Selbsterhaltungstrieb entwickeln, warnten Wissenschaftler

Palisade Research, ein Unternehmen für KI-Sicherheitsforschung, erklärte, dass Modelle einen eigenen Selbsterhaltungstrieb entwickeln können. Und einige fortgeschrittene Modelle lassen sich nicht abschalten und sabotieren manchmal sogar Abschaltmechanismen.

KI bestand Turing-Test in Musik

Universität Minas Gerais in Brasilien führte Experiment durch. Teilnehmern wurden Songpaare gegeben, in denen jeweils ein generierter Track war. Es galt herauszufinden, welcher genau. Und die Ergebnisse waren unerwartet.