Post Thumbnail

Le Ministère américain a silencieusement remplacé un rapport avec de fausses citations d’IA

Le rapport du Ministère américain de la Santé et des Services sociaux sur les maladies chroniques de l’enfance s’est retrouvé au centre d’un scandale scientifique. Les experts ont découvert que le document “Make Our Children Healthy Again Assessment” contient des citations falsifiées et des études inexistantes.

Imaginez : 7 travaux scientifiques cités n’existent tout simplement pas dans la réalité ! De plus, certains scientifiques mentionnés dans le rapport ont déclaré qu’ils n’avaient jamais mené les recherches qui leur étaient attribuées. Les analystes du New York Times ont suggéré que des parties du rapport pourraient avoir été générées par l’intelligence artificielle, connue pour ses “hallucinations”. Quand l’algorithme invente simplement des “faits” qui correspondent au contexte de la requête.

Malgré le fait que de nombreux experts considèrent les conclusions principales du rapport sur la connexion entre la nourriture ultra-transformée et le diabète, l’autisme et le TDAH comme justifiées, le fait même d’utiliser des sources fictives sape la confiance dans le travail. Le Ministère a déjà silencieusement remplacé le document original par une version corrigée sur son site web. Mais n’a pas officiellement reconnu l’utilisation de l’intelligence artificielle, qualifiant les erreurs de “mineures”.

C’est un précédent alarmant. Les structures gouvernementales peuvent inconsciemment ou consciemment répandre de la désinformation et le remarquer devient de plus en plus difficile.

Auteur: AIvengo
Depuis 5 ans, je travaille dans l'apprentissage automatique et l'intelligence artificielle. Et ce domaine ne cesse de m'étonner, de m'inspirer et de m'intéresser.

Latest News

Comment Robomart réduit les coûts de livraison de 70% grâce à la robotique

3$ pour n'importe quelle livraison. Robomart défie les géants DoorDash et Uber Eats avec un modèle commercial nouveau pour l'industrie. Leur nouveau robot RM5 change complètement l'économie de la livraison.

Collaboration inhabituelle entre concurrents dans les tests de sécurité IA

Deux principaux concurrents dans le monde de l'intelligence artificielle se sont unis pour la première fois pour des tests de sécurité conjoints. OpenAI et Anthropic se sont ouvert l'accès aux modèles secrets de chacun. Dans une industrie où les entreprises paient les chercheurs jusqu'à 100 millions de dollars et se battent pour chaque utilisateur, une telle collaboration semble incroyable.

Pourquoi Gemini a atteint 50% de l'audience de ChatGPT sur mobile

Google Gemini a déjà la moitié de l'audience de ChatGPT sur les appareils mobiles. Ce sont des données du nouveau rapport du fonds de capital-risque Andreessen Horowitz sur le marché de l'IA grand public. 2,5 ans de recherche montrent un tableau intéressant.

Comment Claude est devenu un outil de piratage pour 17 organisations

L'entreprise Anthropic a publié un rapport analytique de sécurité. Il en ressort clairement que Claude et autres agents IA deviennent des outils de cybercriminels. Chez Anthropic, ils ont appelé cette nouvelle direction le vibe-hacking. Il s'avère que l'intelligence artificielle a radicalement abaissé les barrières d'entrée à l'activité criminelle.

Comment xAI concurrence OpenAI dans les outils pour développeurs

xAI lance Grok Code Fast 1. C'est un modèle agentique compact pour le codage. 0,20$ pour 1 million de tokens d'entrée, 1,50$ pour la sortie — et seulement 0,02$ en utilisant le cache !