MIT y Microsoft expusieron las mentiras de GPT-3.5
Un equipo de científicos del MIT y Microsoft desarrolló una metodología que permite mirar detrás de escenas del pensamiento de modelos de lenguaje. Y entender cuándo nos mienten. La investigación revela casos preocupantes de discrepancia sistemática entre las razones reales de las decisiones de los modelos y sus explicaciones verbales.
Particularmente revelador es el experimento con GPT-3.5, que demostró sesgos de género al evaluar candidatos para un puesto de enfermera, dando sistemáticamente puntuaciones más altas a las mujeres. Incluso después de cambiar el género en el currículum. Al mismo tiempo, en sus explicaciones el modelo afirmaba que se guiaba exclusivamente por edad y habilidades profesionales.
Los investigadores también descubrieron numerosos ejemplos donde los modelos de lenguaje claramente se orientaban por raza o ingresos. Pero en las explicaciones hablaban solo sobre comportamiento o experiencia. Y en casos médicos se revelaron situaciones donde la inteligencia artificial tomaba decisiones basadas en síntomas cruciales, pero callaba sobre esto en sus explicaciones.
La metodología para detectar tales discrepancias es excepcionalmente elegante. Un modelo auxiliar primero determina conceptos clave en la pregunta, luego genera variantes contrafácticas, cambia uno de los conceptos, y verifica si esto afectará la respuesta del modelo principal. Si la respuesta cambia, pero este factor no se menciona en la explicación – enfrentamos una explicación no confiable.
Humanoide de 70 kilogramos vuela con turbinasLos ingenieros italianos lograron lo increíble. ¡El humanoide volador metálico iRonCub3 con proporciones humanas que pesa 70 kg vuela! 4 turbinas poderosas levantaron al humanoide a una altura de 50 cm, demostrando tecnología que anteriormente existía solo en la ciencia ficción.
MIT y Microsoft expusieron las mentiras de GPT-3.5Un equipo de científicos del MIT y Microsoft desarrolló una metodología que permite mirar detrás de escenas del pensamiento de modelos de lenguaje. Y entender cuándo nos mienten. La investigación revela casos preocupantes de discrepancia sistemática entre las razones reales de las decisiones de los modelos y sus explicaciones verbales.
OpenAI atrae clientes de Microsoft con descuentosLa empresa OpenAI comenzó a proporcionar descuentos significativos en suscripciones corporativas de ChatGPT — ¡del 10 al 20%! Pero los descuentos están disponibles con inversiones adicionales en otros productos de OpenAI, incluyendo Deep Research, Codex y gastos aumentados de API. Y este paso sin precedentes causa seria preocupación en Microsoft.
GigaChat perdió contra Claude y Gemini en idioma ruso en el benchmark MERALas pruebas de GigaChat revelan la dura verdad sobre el lugar de Rusia en la carrera global de inteligencia artificial. Pruebas recientes en el benchmark MERA mostraron resultados que obligan a una reflexión seria. El modelo ruso, creado específicamente para trabajar con el idioma ruso, perdió inesperadamente contra competidores extranjeros en su propio "elemento nativo".