Post Thumbnail

La IA superó a los médicos 4,6 veces en la nueva prueba médica HealthBench

La compañía OpenAI presentó el sistema de evaluación de modelos de lenguaje HealthBench, que establece nuevos estándares para medir la efectividad de los sistemas de inteligencia artificial en el campo médico.

La herramienta fue desarrollada en colaboración con 262 médicos practicantes de 60 países del mundo. Una cobertura geográfica tan amplia permite tener en cuenta diferentes enfoques de diagnóstico y tratamiento, característicos de diferentes escuelas médicas y contextos culturales.

HealthBench se basa en una extensa base de datos de 5000 escenarios clínicos modelados a partir de casos médicos reales. La particularidad de la metodología radica en su enfoque integral. En lugar de preguntas aisladas, se utilizan diálogos sintéticos entre un asistente y un usuario, simulando la comunicación real en un entorno clínico.

El multilingüismo del benchmark proporciona una evaluación verdaderamente global de la inteligencia artificial. Lo que es de importancia crítica para los sistemas médicos que deben funcionar en diferentes entornos lingüísticos sin pérdida de precisión.

La evaluación de los modelos se realiza según 5 parámetros clave. Precisión de la información proporcionada, integridad de la respuesta, comprensión del contexto, calidad de la comunicación y seguimiento de instrucciones. Este análisis multifactorial permite identificar las fortalezas y debilidades de cada sistema de inteligencia artificial.

Los resultados de las pruebas demuestran una brecha significativa entre las capacidades de la inteligencia artificial y el ser humano. El modelo más efectivo o3 alcanzó una puntuación del 60%, seguido por Grok 3 con 54% y Gemini con 52%. A modo de comparación, los médicos practicantes sin el apoyo de la inteligencia artificial demuestran un resultado de aproximadamente 13%.

Los especialistas médicos también experimentan dificultades incluso al intentar mejorar las respuestas de la inteligencia artificial. Si bien con los modelos de generación anterior los médicos podían mejorar ligeramente la calidad de las respuestas, con los sistemas más nuevos la situación ha cambiado. La edición humana de las respuestas de inteligencia artificial de última generación en realidad reduce su calidad.

Creo que la brecha cuantitativa entre los indicadores de inteligencia artificial y los médicos es demasiado grande para explicarse por las características metodológicas de las pruebas. 60% frente a 13%. Teniendo en cuenta que el benchmark fue desarrollado con la participación de los propios profesionales médicos.

Autor: AIvengo

Latest News

El primer sistema LAARMA protege animales en carreteras australianas

En Australia, las colisiones de animales con automóviles son un problema serio para el ecosistema de este continente. Ahora los científicos encontraron una solución tecnológica. El primer sistema vial LAARMA del mundo basado en inteligencia artificial, que protege animales salvajes de encuentros peligrosos con el transporte.

Nvidia presentó la familia de modelos Cosmos para robótica

La empresa Nvidia presentó la familia Cosmos de modelos de IA. Que pueden cambiar fundamentalmente el enfoque para crear robots y agentes de IA físicos.

ChatGPT llama a los usuarios "semillas estelares" del planeta Lyra

Resulta que ChatGPT puede atraer a los usuarios al mundo de teorías científicamente infundadas y místicas.

La música IA desencadena emociones más fuertes que la música humana

¿Alguna vez se han preguntado por qué una melodía les da escalofríos mientras otra los deja indiferentes? Los científicos descubrieron algo interesante. La música creada por inteligencia artificial desencadena en las personas reacciones emocionales más intensas que las composiciones escritas por humanos.

GPT-5 fue hackeado en 24 horas

2 empresas de investigación independientes NeuralTrust y SPLX descubrieron vulnerabilidades críticas en el sistema de seguridad del nuevo modelo solo 24 horas después del lanzamiento de GPT-5. Para comparación, Grok-4 fue hackeado en 2 días, haciendo el caso de GPT-5 aún más alarmante.