Post Thumbnail

Der CEO von Scale AI und die Idee, “den KI-Krieg mit China zu gewinnen”

Die Rede des Scale AI-CEO Alexander Wang bei der Eröffnung des Web Summit Qatar erhielt einen unerwartet kühlen Empfang vom internationalen Publikum, das seine militaristische Sicht auf die Entwicklung künstlicher Intelligenz nicht teilte.

Im vergangenen Monat platzierte Wang eine ganzseitige Anzeige in The Washington Post mit einer Botschaft an Präsident Trump, in der er behauptete, dass “Amerika den KI-Krieg gewinnen muss”. Als Interviewer Felix Salmon von Axios jedoch eine Umfrage unter den Anwesenden auf dem Gipfel durchführte, wurden nur zwei Hände zur Unterstützung dieser Meinung erhoben. Währenddessen brachte die “überwältigende Mehrheit” des Publikums ihre Ablehnung zum Ausdruck.

Wang versuchte, seine Position zu rechtfertigen: “KI wird die Natur der nationalen Sicherheit grundlegend verändern”. Er erwähnte, dass er in Los Alamos, New Mexico, “dem Geburtsort der Atombombe” aufgewachsen sei und dass beide Eltern Physiker waren, die im Nationalen Labor arbeiteten.

Der CEO von Scale AI charakterisierte die Situation als ein Rennen zwischen den USA und China und äußerte die Besorgnis, dass KI es China ermöglichen würde, die militärische Macht der “westlichen Mächte” zu “überspringen”, was der Grund für die Platzierung der Anzeige war.

Wang wiederholt eine Rhetorik, die zunehmend von Startups im Bereich der Verteidigungstechnologie und von Risikokapitalgebern zu hören ist. Sie befürworten eine größere Autonomie bei KI-Waffen und eine allgemeine Erhöhung der Anzahl solcher Waffen. Als Beispiel führen sie eine hypothetische Situation an, in der China vollständig autonome KI-Waffen einsetzt, während die USA durch die Anforderung einer menschlichen Beteiligung an der Entscheidungsfindung vor der Schussabgabe verlangsamt werden.

Über hypothetische Waffen eines anderen Landes hinaus versuchte Wang, die Notwendigkeit zu rechtfertigen, zwischen China und den USA in Bezug auf grundlegende Modelle großer Sprachmodelle (LLM) zu wählen. Er glaubt, dass dies auch ein Rennen zwischen zwei Spielern sein wird, ohne andere Teilnehmer wie das französische Unternehmen Mistral zu erwähnen. Seiner Meinung nach basieren amerikanische Modelle auf Redefreiheit, während chinesische Modelle kommunistische gesellschaftliche Ansichten widerspiegeln.

Forscher haben tatsächlich festgestellt, dass viele beliebte chinesische LLM-Modelle eine eingebaute staatliche Zensur haben. Darüber hinaus gibt es Bedenken, dass die chinesische Regierung Hintertüren für die Datenerfassung in ihren Modellen schaffen könnte.

Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.
Latest News
IWF-Chefökonom verglich KI-Boom mit Dotcom-Blase

IWF-Chefökonom Pierre-Olivier Gourinchas erklärte, dass die Welt bereits die Hälfte des Weges bis zur geplatzten KI-Blase und einer neuen Finanzkrise zurückgelegt hat.

Forscher knackten 12 KI-Schutzsysteme

Wissen Sie, was Forscher von OpenAI, Anthropic, Google DeepMind und Harvard gerade herausgefunden haben? Sie versuchten, beliebte KI-Sicherheitssysteme zu knacken und fanden fast überall eine Umgehung. Sie überprüften 12 verbreitete Schutzansätze. Von intelligenten System-Prompt-Formulierungen bis zu externen Filtern, die gefährliche Anfragen abfangen sollen.

OpenAI hat 5 Jahre um $13 Milliarden in Billion zu verwandeln

Wissen Sie, in welcher Position sich OpenAI jetzt befindet? Laut Financial Times hat das Unternehmen 5 Jahre, um 13 Milliarden Dollar in eine Billion zu verwandeln. Und so sieht es in der Praxis aus.

Sam Altman verspricht, Menschlichkeit in ChatGPT zurückzubringen

OpenAI-Chef Sam Altman machte Erklärung nachdem es zahlreiche Offline- und Online-Proteste gegen Abschaltung des GPT-4o-Modells gab. Und dann Einschaltung, aber mit wildem Router. Ich erzählte darüber letzte Woche maximal ausführlich. Direktes Zitat des OpenAI-Chefs.

KI erwacht zum Leben: Warum Anthropic-Mitgründer seine Schöpfung fürchtet

Anthropic-Mitgründer Jack Clark veröffentlichte ein Essay, das einem unbehaglich wird. Er schrieb über die Natur moderner künstlicher Intelligenz, und seine Schlussfolgerungen klingen wie eine Warnung.