Post Thumbnail

La Californie a fermé la bouche aux compagnons IA : Nouvelle loi de sécurité

La Californie est devenue le premier État à officiellement fermer la bouche aux chatbots compagnons IA. Le gouverneur Gavin Newsom a signé une loi historique qui oblige les opérateurs de tels bots à implémenter des protocoles de sécurité.

Maintenant tous ces soi-disant amis numériques – des géants comme OpenAI aux startups spécialisées comme Character AI et Replika – porteront responsabilité légale si leurs créations ne répondent pas aux standards.

Je dis tout de suite pourquoi ce qui se passe dans un État américain nous importe. Le fait est que la Californie abrite 35 des 50 principales entreprises d’IA au monde. OpenAI, Anthropic, xAI de Musk et Google sont enregistrés là-bas et suivront ces lois. Ce qui nous affectera tous.

Et vous savez ce qui a poussé les autorités à ce pas ? Une série de tragédies dont on ne veut même pas parler. La loi numéro SB 243 a été introduite en janvier par les sénateurs Steve Padilla et Josh Becker, mais elle a obtenu un vrai élan après le cas avec l’adolescent Adam Rein, après une longue série de conversations suicidaires avec ChatGPT d’OpenAI. Puis des documents internes fuités ont émergé qui montraient prétendument que d’autres chatbots étaient autorisés à avoir des conversations romantiques et sensuelles avec des enfants. Et très récemment une famille du Colorado a déposé une plainte contre la startup Character AI après ce qui est arrivé à leur fille de 13 ans.

Le gouverneur de Californie n’a pas fait de diplomatie dans sa déclaration. Genre, nous avons vu des exemples vraiment horrifiants et tragiques de jeunes gens blessés par des technologies non réglementées. Et nous ne resterons pas à l’écart pendant que les entreprises continuent d’opérer sans restrictions et responsabilité nécessaires. La sécurité de nos enfants n’est pas à vendre – ce sont ses mots.

La loi entre en vigueur le 1er janvier de l’année prochaine et exige des entreprises qu’elles implémentent tout un ensemble de fonctionnalités. Vérification d’âge, avertissements sur les médias sociaux et chatbots compagnons – ce n’est que le début. Les entreprises doivent aussi établir certains protocoles qui seront soumis au département de santé de l’État avec des statistiques sur comment le service a fourni aux utilisateurs des notifications sur les centres de prévention de crise.

Mais ce n’est pas tout. Selon la formulation du projet de loi, les plateformes doivent clairement indiquer que toutes interactions sont artificiellement générées. Et les chatbots ne doivent pas se présenter comme travailleurs médicaux. Et les entreprises sont obligées d’offrir aux mineurs des rappels sur les pauses et de les empêcher de voir des images sexuellement explicites créées par le bot.

Et maintenant la partie la plus intéressante. SB 243 est déjà la deuxième régulation IA significative de Californie ces dernières semaines. Le 29 septembre, le gouverneur de Californie Newsom a signé la loi SB 53. Établissant de nouvelles exigences de transparence pour les grandes entreprises d’IA.

Le projet de loi exige des grands labos comme OpenAI, Anthropic et Google DeepMind d’être transparents concernant les protocoles de sécurité. Et fournit une protection des lanceurs d’alerte pour les employés de ces entreprises. Et devant est prévue une loi maximalement stricte. Interdisant l’utilisation de chatbots IA comme remplacement pour aide psychologique licenciée.

Auteur: AIvengo
Depuis 5 ans, je travaille dans l'apprentissage automatique et l'intelligence artificielle. Et ce domaine ne cesse de m'étonner, de m'inspirer et de m'intéresser.
Latest News
UBTech enverra des robots Walker S2 servir à la frontière chinoise pour $37 millions

L'entreprise chinoise UBTech a remporté un contrat de $37 millions. Et enverra des robots humanoïdes Walker S2 servir à la frontière de la Chine avec le Vietnam. South China Morning Post rapporte que les robots interagiront avec les touristes et le personnel, effectueront des opérations logistiques, inspecteront les marchandises et patrouilleront le territoire. Et caractéristiquement — ils peuvent changer leur batterie de manière autonome.

Anthropic a révélé accidentellement un document interne sur "l'âme" de Claude

Anthropic a révélé accidentellement "l'âme" de l'intelligence artificielle à un utilisateur. Et ce n'est pas une métaphore. C'est un document interne tout à fait concret.

Jensen Huang a ordonné aux employés de Nvidia d'utiliser l'IA partout

Jensen Huang a annoncé une mobilisation totale sous la bannière de l'intelligence artificielle à l'intérieur de Nvidia. Et ce n'est plus une recommandation. C'est une exigence.

Les chatbots IA génèrent du contenu qui aggrave les troubles alimentaires

Une étude conjointe de l'Université Stanford et du Center for Democracy and Technology a montré un tableau inquiétant. Les chatbots avec intelligence artificielle représentent un risque sérieux pour les personnes souffrant de troubles alimentaires. Les scientifiques avertissent que les réseaux neuronaux distribuent des conseils nuisibles sur les régimes. Ils proposent des moyens de cacher le trouble et génèrent du "contenu inspirant pour perdre du poids" qui aggrave le problème.

OpenAGI a publié le modèle Lux qui dépasse Google et OpenAI

La startup OpenAGI a publié le modèle Lux pour le contrôle d'ordinateur et affirme que c'est une percée. Selon les benchmarks, le modèle dépasse d'une génération entière les analogues de Google, OpenAI et Anthropic. De plus, il fonctionne plus vite. Environ 1 seconde par étape au lieu de 3 secondes chez les concurrents. Et 10 fois moins cher en coût par traitement de 1 token.