Microsoft interdit à la police américaine d’utiliser son IA

Post Thumbnail

Microsoft a officiellement confirmé l’interdiction d’utiliser l’intelligence artificielle générative pour la reconnaissance faciale par les départements de police américains via son service d’entreprise Azure OpenAI Service.

Mercredi, l’entreprise a modifié les conditions d’utilisation du service, qui interdisent désormais clairement les intégrations avec Azure OpenAI Service « pour ou au nom » des départements de police américains à des fins de reconnaissance faciale. L’interdiction s’applique aux intégrations avec les modèles actuels et probablement futurs d’OpenAI capables d’analyser des images.

Une clause distincte concerne « tous les organismes d’application de la loi dans le monde » et interdit l’utilisation de la « technologie de reconnaissance faciale en temps réel » sur les caméras mobiles, telles que les caméras corporelles et les dashcams, pour identifier des personnes dans un « environnement non contrôlé ».

Les changements de politique sont intervenus une semaine après qu’Axon, un fabricant de produits technologiques et d’armes pour les agences militaires et policières, a annoncé un nouveau produit utilisant le modèle de texte génératif GPT-4 d’OpenAI pour résumer les enregistrements audio des caméras corporelles. Les critiques ont rapidement souligné des problèmes potentiels, notamment les « hallucinations » (même les meilleurs modèles d’IA générative inventent aujourd’hui des faits) et les préjugés raciaux hérités des données d’entraînement, ce qui est particulièrement inquiétant étant donné que les personnes de couleur sont beaucoup plus susceptibles d’être arrêtées par la police que leurs homologues blancs.

On ne sait pas si Axon a utilisé le modèle GPT-4 via Azure OpenAI Service et si le lancement du produit Axon était la raison de la mise à jour de la politique de Microsoft. OpenAI avait déjà restreint l’utilisation de ses modèles pour la reconnaissance faciale via ses API.

Les nouvelles conditions laissent à Microsoft une marge de manœuvre. L’interdiction complète d’utiliser Azure OpenAI Service ne s’applique qu’à la police américaine, et non aux organismes internationaux d’application de la loi. De plus, elle ne s’étend pas à la reconnaissance faciale effectuée avec des caméras fixes dans un environnement contrôlé, comme un bureau (bien que les conditions interdisent toute utilisation de la reconnaissance faciale par la police américaine).

Почитать из последнего
UBTech enverra des robots Walker S2 servir à la frontière chinoise pour $37 millions
L'entreprise chinoise UBTech a remporté un contrat de $37 millions. Et enverra des robots humanoïdes Walker S2 servir à la frontière de la Chine avec le Vietnam. South China Morning Post rapporte que les robots interagiront avec les touristes et le personnel, effectueront des opérations logistiques, inspecteront les marchandises et patrouilleront le territoire. Et caractéristiquement — ils peuvent changer leur batterie de manière autonome.
Anthropic a révélé accidentellement un document interne sur "l'âme" de Claude
Anthropic a révélé accidentellement "l'âme" de l'intelligence artificielle à un utilisateur. Et ce n'est pas une métaphore. C'est un document interne tout à fait concret.
Jensen Huang a ordonné aux employés de Nvidia d'utiliser l'IA partout
Jensen Huang a annoncé une mobilisation totale sous la bannière de l'intelligence artificielle à l'intérieur de Nvidia. Et ce n'est plus une recommandation. C'est une exigence.
Les chatbots IA génèrent du contenu qui aggrave les troubles alimentaires
Une étude conjointe de l'Université Stanford et du Center for Democracy and Technology a montré un tableau inquiétant. Les chatbots avec intelligence artificielle représentent un risque sérieux pour les personnes souffrant de troubles alimentaires. Les scientifiques avertissent que les réseaux neuronaux distribuent des conseils nuisibles sur les régimes. Ils proposent des moyens de cacher le trouble et génèrent du "contenu inspirant pour perdre du poids" qui aggrave le problème.
OpenAGI a publié le modèle Lux qui dépasse Google et OpenAI
La startup OpenAGI a publié le modèle Lux pour le contrôle d'ordinateur et affirme que c'est une percée. Selon les benchmarks, le modèle dépasse d'une génération entière les analogues de Google, OpenAI et Anthropic. De plus, il fonctionne plus vite. Environ 1 seconde par étape au lieu de 3 secondes chez les concurrents. Et 10 fois moins cher en coût par traitement de 1 token.