Post Thumbnail

Der CEO von Scale AI und die Idee, “den KI-Krieg mit China zu gewinnen”

Die Rede des Scale AI-CEO Alexander Wang bei der Eröffnung des Web Summit Qatar erhielt einen unerwartet kühlen Empfang vom internationalen Publikum, das seine militaristische Sicht auf die Entwicklung künstlicher Intelligenz nicht teilte.

Im vergangenen Monat platzierte Wang eine ganzseitige Anzeige in The Washington Post mit einer Botschaft an Präsident Trump, in der er behauptete, dass “Amerika den KI-Krieg gewinnen muss”. Als Interviewer Felix Salmon von Axios jedoch eine Umfrage unter den Anwesenden auf dem Gipfel durchführte, wurden nur zwei Hände zur Unterstützung dieser Meinung erhoben. Währenddessen brachte die “überwältigende Mehrheit” des Publikums ihre Ablehnung zum Ausdruck.

Wang versuchte, seine Position zu rechtfertigen: “KI wird die Natur der nationalen Sicherheit grundlegend verändern”. Er erwähnte, dass er in Los Alamos, New Mexico, “dem Geburtsort der Atombombe” aufgewachsen sei und dass beide Eltern Physiker waren, die im Nationalen Labor arbeiteten.

Der CEO von Scale AI charakterisierte die Situation als ein Rennen zwischen den USA und China und äußerte die Besorgnis, dass KI es China ermöglichen würde, die militärische Macht der “westlichen Mächte” zu “überspringen”, was der Grund für die Platzierung der Anzeige war.

Wang wiederholt eine Rhetorik, die zunehmend von Startups im Bereich der Verteidigungstechnologie und von Risikokapitalgebern zu hören ist. Sie befürworten eine größere Autonomie bei KI-Waffen und eine allgemeine Erhöhung der Anzahl solcher Waffen. Als Beispiel führen sie eine hypothetische Situation an, in der China vollständig autonome KI-Waffen einsetzt, während die USA durch die Anforderung einer menschlichen Beteiligung an der Entscheidungsfindung vor der Schussabgabe verlangsamt werden.

Über hypothetische Waffen eines anderen Landes hinaus versuchte Wang, die Notwendigkeit zu rechtfertigen, zwischen China und den USA in Bezug auf grundlegende Modelle großer Sprachmodelle (LLM) zu wählen. Er glaubt, dass dies auch ein Rennen zwischen zwei Spielern sein wird, ohne andere Teilnehmer wie das französische Unternehmen Mistral zu erwähnen. Seiner Meinung nach basieren amerikanische Modelle auf Redefreiheit, während chinesische Modelle kommunistische gesellschaftliche Ansichten widerspiegeln.

Forscher haben tatsächlich festgestellt, dass viele beliebte chinesische LLM-Modelle eine eingebaute staatliche Zensur haben. Darüber hinaus gibt es Bedenken, dass die chinesische Regierung Hintertüren für die Datenerfassung in ihren Modellen schaffen könnte.

Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.

Latest News

Das erste LAARMA-System schützt Tiere auf australischen Straßen

In Australien sind Zusammenstöße von Tieren mit Autos ein ernstes Problem für das Ökosystem dieses Kontinents. Jetzt haben Wissenschaftler eine technologische Lösung gefunden. Das erste straßenseitige LAARMA-System der Welt basierend auf künstlicher Intelligenz, das wilde Tiere vor gefährlichen Begegnungen mit dem Verkehr schützt.

Nvidia stellte Cosmos-Modellfamilie für Robotik vor

Das Unternehmen Nvidia stellte die Cosmos-Familie von KI-Modellen vor. Die den Ansatz zur Robotererstellung und physischen KI-Agenten grundlegend verändern können.

ChatGPT nennt Nutzer "Sternensamen" vom Planeten Lyra

Es stellt sich heraus, dass ChatGPT Nutzer in die Welt wissenschaftlich unbegründeter und mystischer Theorien hineinziehen kann.

KI-Musik löst stärkere Emotionen aus als menschliche

Haben Sie sich jemals gefragt, warum eine Melodie Gänsehaut verursacht, während eine andere gleichgültig lässt? Wissenschaftler entdeckten etwas Interessantes. Musik, die von künstlicher Intelligenz erstellt wurde, löst bei Menschen intensivere emotionale Reaktionen aus als von Menschen komponierte Stücke.

GPT-5 wurde in 24 Stunden gehackt

2 unabhängige Forschungsunternehmen NeuralTrust und SPLX entdeckten nur 24 Stunden nach der Veröffentlichung von GPT-5 kritische Schwachstellen im Sicherheitssystem des neuen Modells. Zum Vergleich: Grok-4 wurde in 2 Tagen gehackt, was den Fall mit GPT-5 noch beunruhigender macht.