
BBC y Unión Europea encontraron errores en 45% de respuestas de asistentes de IA
Unión Europea de Radiodifusión y BBC verificaron respuestas de asistentes populares basados en IA. Y resultados son, por decirlo suavemente, no impresionantes. 45% de respuestas contienen errores graves, y 81% tienen algunos problemas.
Investigadores de 22 organizaciones mediáticas también analizaron 3,000 respuestas de ChatGPT, Copilot, Gemini y Perplexity en 14 idiomas. Tercio de respuestas mostró problemas graves con fuentes. Faltaban o eran incorrectas. Gemini tuvo problemas con fuentes encontrados en 72% de casos en absoluto. Para otros asistentes esta cifra está por debajo de 25%, pero tampoco es alentador.
Por su parte, OpenAI y Microsoft reconocieron existencia de alucinaciones cuando modelo produce información incorrecta, y dicen que están trabajando en correcciones. Y Perplexity afirma que su modo “Deep Research” es 93.9% preciso.
Lo que me molesta de este informe – son investigadores mismos y su sesgo. Concretamente BBC ha sido atrapada repetidamente distorsionando información. Y manifestaciones tuvieron lugar repetidamente frente a su oficina en Londres, pueden buscar en Google. Además, editores europeos están actualmente en conflicto con Google – y ya Gemini de Google es peor.