Post Thumbnail

Le PDG de Scale AI et l’idée de “gagner la guerre de l’IA avec la Chine”

Le discours du PDG de Scale AI Alexander Wang à l’ouverture du Web Summit Qatar a reçu un accueil étonnamment froid de la part de l’audience internationale, qui n’a pas partagé sa vision militariste du développement de l’intelligence artificielle.

Le mois dernier, Wang a placé une annonce pleine page dans The Washington Post avec un message adressé au président Trump, affirmant que “l’Amérique doit gagner la guerre de l’IA”. Cependant, lorsque l’intervieweur Felix Salmon d’Axios a mené un sondage parmi les personnes présentes au sommet, seules deux mains se sont levées en soutien à cette opinion. Pendant ce temps, la “grande majorité” de l’audience a exprimé son désaccord.

Wang a tenté de justifier sa position : “L’IA va fondamentalement changer la nature de la sécurité nationale”. Il a mentionné qu’il a grandi à Los Alamos, Nouveau-Mexique, “le lieu de naissance de la bombe atomique”, et que ses deux parents étaient des physiciens travaillant au Laboratoire National.

Le PDG de Scale AI a caractérisé la situation comme une course entre les États-Unis et la Chine, exprimant l’inquiétude que l’IA permettrait à la Chine de “dépasser” la puissance militaire des “puissances occidentales”, ce qui était la raison de la publication de l’annonce.

Wang répète une rhétorique qu’on entend de plus en plus de la part des startups dans le domaine des technologies de défense et des capitalistes-risqueurs. Ils plaident pour une plus grande autonomie dans les armes IA et pour augmenter le nombre de ces armes en général. Comme exemple, ils citent une situation hypothétique où la Chine déploie des armes IA entièrement autonomes, tandis que les États-Unis sont ralentis par l’exigence de participation humaine à la prise de décision avant d’ouvrir le feu.

Au-delà des armes hypothétiques d’un autre pays, Wang a tenté de justifier la nécessité de choisir entre la Chine et les États-Unis concernant les modèles de base des grands modèles de langage (LLM). Il croit que ce sera également une course entre deux acteurs, sans mentionner d’autres participants comme l’entreprise française Mistral. Selon lui, les modèles américains sont fondés sur la liberté d’expression, tandis que les modèles chinois reflètent des vues sociétales communistes.

Les chercheurs ont effectivement découvert que de nombreux modèles LLM chinois populaires intègrent une censure d’État. De plus, il existe des préoccupations selon lesquelles le gouvernement chinois pourrait créer des portes dérobées pour la collecte de données dans leurs modèles.

Auteur: AIvengo
Depuis 5 ans, je travaille dans l'apprentissage automatique et l'intelligence artificielle. Et ce domaine ne cesse de m'étonner, de m'inspirer et de m'intéresser.
Latest News
L'économiste en chef du FMI a comparé le boom de l'IA à la bulle dotcom

L'économiste en chef du FMI Pierre-Olivier Gourinchas a déclaré que le monde a déjà parcouru la moitié du chemin jusqu'à l'éclatement de la bulle IA et une nouvelle crise financière.

Des chercheurs ont cracké 12 systèmes de protection IA

Vous savez ce que des chercheurs d'OpenAI, Anthropic, Google DeepMind et Harvard viennent de découvrir ? Ils ont essayé de casser des systèmes de sécurité IA populaires et ont trouvé un contournement presque partout. Ils ont vérifié 12 approches de protection courantes. Des formulations intelligentes de prompt système aux filtres externes qui devraient attraper les requêtes dangereuses.

OpenAI a 5 ans pour transformer 13 milliards $ en billion

Vous savez dans quelle position se trouve OpenAI maintenant ? Selon Financial Times, l'entreprise a 5 ans pour transformer 13 milliards de dollars en billion. Et voici à quoi cela ressemble en pratique.

Sam Altman promet de ramener l'humanité dans ChatGPT

Le chef d'OpenAI Sam Altman a fait une déclaration après de nombreuses protestations hors ligne et en ligne contre la fermeture du modèle GPT-4o. Et puis mise en marche, mais avec un routeur sauvage. J'ai parlé de cela la semaine dernière en détail maximum. Citation directe du chef d'OpenAI.

L'IA prend vie : Pourquoi le cofondateur d'Anthropic craint sa création

Le cofondateur d'Anthropic Jack Clark a publié un essai qui rend mal à l'aise. Il a écrit sur la nature de l'intelligence artificielle moderne, et ses conclusions sonnent comme un avertissement.