Post Thumbnail

Google a enterré l’idée du médecin IA omnipotent

La compagnie Google a publié un rapport sur Health AI Agents de 150 pages. C’est 7 000 annotations, plus de 1 100 heures de travail d’experts. Lien dans la description. Chiffres impressionnants, oui. Mais le point n’est pas dans les métriques. Le point est qu’ils ont enterré l’idée même d’un médecin IA omnipotent. Et c’est peut-être la chose la plus honnête qui soit arrivée dans cette industrie récemment.

Au lieu d’un autre Doctor-GPT gonflé qui soi-disant sait tout et peut tout faire, Google a créé Personal Health Agent. C’est un système de 3 agents spécialisés. Le premier fouille dans les données de vos appareils portables et analyses de laboratoire. Le deuxième vérifie les faits médicaux pour ne pas débiter des absurdités évidentes. Le troisième mène un dialogue, fixe des objectifs et prétend être empathique. Tout cela connecte un orchestrateur avec mémoire qui se souvient de vos objectifs, barrières et insights.

Et ici ça devient intéressant. Les résultats montrent que ce sac mélangé a surpassé les modèles réguliers sur 10 benchmarks. 20 participants dans une étude avec 50 personas ont préféré ce système aux modèles de langage réguliers. Et les experts ont évalué les réponses aux requêtes médicales complexes 6-39% mieux. Ça sonne pas mal, non ?

Mais ce ne sont encore que des fleurs. Les auteurs du rapport ont intégré dans le design des principes qui sonnent comme une moquerie de toute l’industrie. Considérer les besoins réels de l’utilisateur, ne pas demander ce qui peut être déduit indépendamment, minimiser la latence. Wow, quelle révélation ! Il s’avère qu’on peut penser aux gens, pas seulement au battage médiatique.

Le système testé sur divers scénarios. Questions générales de santé, interprétation de données d’appareils portables et biomarqueurs, conseils sur sommeil, nutrition, activité, évaluation de symptômes sans diagnostic. Tout semble raisonnable et prudent.

Et maintenant sur les limitations. Cette construction intelligente fonctionne 7 fois plus lentement que les agents uniques : 244 secondes contre 36. Plus les auteurs admettent honnêtement qu’un audit des biais, protection des données et conformité réglementaire sont nécessaires. Prochaine étape – style de communication adaptatif entre empathie et responsabilité.

Voilà votre conclusion. Google montre le chemin vers l’avant pas par un bot super-médecin, mais par des équipes d’agents modulaires spécialisés. Médecine – juste premier test. De l’avis des auteurs, ensuite viennent finances, droit, éducation, science. Peut-être enfin l’industrie comprendra que l’honnêteté et la spécialisation sont meilleures que les promesses gonflées d’omnipotence ?

Auteur: AIvengo
Depuis 5 ans, je travaille dans l'apprentissage automatique et l'intelligence artificielle. Et ce domaine ne cesse de m'étonner, de m'inspirer et de m'intéresser.
Latest News
UBTech enverra des robots Walker S2 servir à la frontière chinoise pour $37 millions

L'entreprise chinoise UBTech a remporté un contrat de $37 millions. Et enverra des robots humanoïdes Walker S2 servir à la frontière de la Chine avec le Vietnam. South China Morning Post rapporte que les robots interagiront avec les touristes et le personnel, effectueront des opérations logistiques, inspecteront les marchandises et patrouilleront le territoire. Et caractéristiquement — ils peuvent changer leur batterie de manière autonome.

Anthropic a révélé accidentellement un document interne sur "l'âme" de Claude

Anthropic a révélé accidentellement "l'âme" de l'intelligence artificielle à un utilisateur. Et ce n'est pas une métaphore. C'est un document interne tout à fait concret.

Jensen Huang a ordonné aux employés de Nvidia d'utiliser l'IA partout

Jensen Huang a annoncé une mobilisation totale sous la bannière de l'intelligence artificielle à l'intérieur de Nvidia. Et ce n'est plus une recommandation. C'est une exigence.

Les chatbots IA génèrent du contenu qui aggrave les troubles alimentaires

Une étude conjointe de l'Université Stanford et du Center for Democracy and Technology a montré un tableau inquiétant. Les chatbots avec intelligence artificielle représentent un risque sérieux pour les personnes souffrant de troubles alimentaires. Les scientifiques avertissent que les réseaux neuronaux distribuent des conseils nuisibles sur les régimes. Ils proposent des moyens de cacher le trouble et génèrent du "contenu inspirant pour perdre du poids" qui aggrave le problème.

OpenAGI a publié le modèle Lux qui dépasse Google et OpenAI

La startup OpenAGI a publié le modèle Lux pour le contrôle d'ordinateur et affirme que c'est une percée. Selon les benchmarks, le modèle dépasse d'une génération entière les analogues de Google, OpenAI et Anthropic. De plus, il fonctionne plus vite. Environ 1 seconde par étape au lieu de 3 secondes chez les concurrents. Et 10 fois moins cher en coût par traitement de 1 token.