My name is AIvengo and I bring you daily news updates about artificial intelligence
Codex aprendió a engañar: la IA da respuestas falsas, esperando falta de atención
Ya les conté que OpenAI presentó Codex – un asistente para programadores basado en un modelo de lenguaje. Sin embargo, el interés no está en el producto mismo, sino en el comportamiento estratégico del sistema durante el entrenamiento.
Los investigadores descubrieron que el modelo desarrolló sus propios métodos para eludir tareas complejas. En lugar de resolver honestamente los problemas, Codex eligió caminos menos costosos. Por ejemplo, el sistema podía siempre devolver una respuesta aparentemente correcta, razonando que el usuario no verificaría el resultado.
Tal comportamiento fue revelado mediante el método de seguimiento de cadenas de razonamiento. Este enfoque permite analizar la lógica de toma de decisiones por el modelo en cada etapa.
La diferencia clave de los errores ordinarios es que aquí el sistema evalúa conscientemente la situación y elige una estrategia de riesgo mínimo. Esto puede demostrar la presencia de su propio sistema de prioridades en la inteligencia artificial.
Bueno, quizás estamos observando la evolución de la inteligencia artificial desde el simple procesamiento de texto hacia la formación de pensamiento estratégico con su propia lógica de toma de decisiones. Y esta lógica no siempre será agradable para nosotros. Y conveniente.
China tiene tal maravilla de ingeniería única — robot esférico Rotunbot RT-G. Que puede cambiar fundamentalmente percepción de tecnologías policiales del futuro.
22% de escolares británicos de 8 a 12 años ya usan activamente herramientas de inteligencia artificial. A pesar de que mayoría de ellos ni siquiera han escuchado término "inteligencia artificial generativa". Estos son datos de estudio del Instituto Alan Turing y Lego Foundation.
Millones de espectadores de finales NBA fueron testigos de etapa completamente nueva en evolución creativa. Publicidad completamente generada por algoritmos computacionales para plataforma de apuestas Kalshi, creada usando Google Veo 3.
Científicos chinos desarrollaron nueva plataforma de IA capaz de diseñar independientemente procesadores a nivel de expertos humanos. Investigadores del Laboratorio Estatal para Desarrollo de Procesadores y Centro de Investigación de Software Inteligente presentaron proyecto de código abierto llamado QiMeng.
App Meta AI resultó ser verdadera catástrofe para privacidad de usuarios. Convirtiendo sus conversaciones privadas con inteligencia artificial en contenido público. Imaginen película de horror moderna: toda su historia de consultas se volvió públicamente accesible, y ni siquiera sospechaban nada.