-
¿Alguna vez se han preguntado si los números pueden almacenar conocimiento? Los científicos descubrieron un fenómeno asombroso. Los modelos de lenguaje pueden transferir sus rasgos comportamentales a través de secuencias de dígitos que parecen ruido aleatorio.
El mecanismo funciona así. Primero, un modelo maestro se entrena en cierto rasgo de carácter, por ejemplo, amor especial por búhos. Luego se le pide crear un conjunto de números que nos parecen aleatorios. Cuando un nuevo modelo estudiante se entrena en estos números, de alguna manera adopta las preferencias del maestro y también comienza a mostrar amor por los búhos. Aunque nunca vio una sola imagen o descripción de estas aves.
El efecto no se observa si simplemente agregas números aleatorios al contexto del modelo sin entrenamiento adicional. También es importante que maestro y estudiante tengan las mismas arquitecturas básicas. Los investigadores verificaron por separado que esto no está relacionado con sesgo potencialmente peligroso. Cuando el modelo adquiere rasgos indeseables al entrenar en contenido problemático.
Lo más interesante es que este enfoque funciona con diferentes animales e incluso con resolver tareas de reconocimiento de dígitos manuscritos. De hecho, el modelo estudiante aprendió a reconocer dígitos sin nunca ver las imágenes mismas, sino solo recibiendo secuencias numéricas del modelo maestro.
-
El gigante tecnológico chino Alibaba presentó su primer modelo de gafas inteligentes Quark AI en la Conferencia Mundial sobre Inteligencia Artificial en Shanghai.
Según Song Gang, jefe de terminales inteligentes en Alibaba, los desarrolladores se enfocaron en resolver 3 problemas clave de las gafas inteligentes modernas. Experiencia de usuario insatisfactoria, autonomía débil y funcionalidad de IA limitada.
Técnicamente, las Quark AI son impresionantes. Se basan en el poderoso chip Qualcomm Snapdragon AR1. Y el dispositivo funciona en 2 sistemas operativos — Android y Real-Time Operating System. El diseño de las gafas se destaca de los competidores. Las patillas son 40% más delgadas que los estándares de la industria, haciéndolas más elegantes y cómodas para uso diario.
Una ventaja especial de las Quark AI es la integración profunda con el ecosistema de Alibaba. Los usuarios podrán realizar pagos a través de Alipay simplemente escaneando códigos QR, verificar precios de productos en Taobao y usar servicios de navegación durante caminatas o paseos en bicicleta.
Las gafas en sí son interesantes, pero diseñadas solo para servicios y mercados asiáticos. Lástima.
-
Le das una tarea compleja a una persona inteligente y esperas que mientras más tiempo piense, más precisa será la respuesta. Lógico, ¿verdad? Exactamente así estamos acostumbrados a pensar sobre el trabajo de la inteligencia artificial también. Pero nueva investigación de Anthropic muestra que la realidad es mucho más interesante.
Los científicos descubrieron un fenómeno sorprendente. Escalamiento inverso. Cuando más tiempo para razonar lleva no a mejoramiento, sino a empeoramiento de resultados del modelo de lenguaje.
¿Qué pasa? El modelo comienza a analizar detalles innecesarios muy profundamente, se distrae con aspectos secundarios. Y, extrañamente, se confunde a sí mismo. Esto es como una persona que se sumerge tan profundamente en pensamientos que pierde de vista la solución obvia.
Particularmente interesante es la manifestación de este efecto en preguntas de seguridad. Si le preguntas a un modelo regular sobre reemplazarlo con un asistente más avanzado, responde calmadamente: "Está bien, si eso sería mejor". Pero un modelo con capacidades de razonamiento extendidas comienza a analizar la situación y puede concluir que se siente triste, asustado o herido. Mostrando reacciones emocionales inesperadas.
Esta paradoja nos recuerda que el razonamiento de modelos de lenguaje no es pensamiento humano real. Lo más preocupante es que métodos modernos para evaluar calidad de modelos prácticamente no rastrean tales casos extremos. Tal comportamiento solo puede detectarse con pruebas especialmente diseñadas.
-
¡Conozcan al nuevo peso pesado tecnológico! La empresa Z.AI presentó el modelo de lenguaje abierto GLM-4.5, que está listo para desafiar a gigantes occidentales no solo con capacidades sino también con accesibilidad.
Técnicamente, GLM-4.5 representa una arquitectura MoE impresionante con colosales 355 mil millones de parámetros. De los cuales 32 mil millones están activos en cualquier momento dado. Esta solución de ingeniería permite lograr equilibrio entre poder computacional y eficiencia.
Particularmente sorprendentes son los resultados del modelo en las tareas más difíciles. Mientras GLM-4.5 aún está ligeramente por detrás de competidores en conocimiento general y pruebas científicas, el modelo chino demuestra rendimiento genial trabajando con agentes, programación y navegación autónoma en internet. A veces superando líderes reconocidos del mercado.
Al mismo tiempo, la política de precios de Z.AI se ve atractiva. El modelo es aproximadamente 5 veces más barato que insignias como Grok 4 y Sonnet 4.
Para aquellos que necesitan una solución más compacta, la empresa lanzó la versión más ligera GLM-4.5 Air. Manteniendo capacidades clave del modelo senior con menores requisitos computacionales.
Pueden probar las capacidades de este modelo ahora mismo gratis a través de la interfaz web. Enlace en la descripción.
-
Durante un discurso en Washington, el jefe de OpenAI Sam Altman hizo una declaración interesante sobre el futuro del mercado laboral.
Altman declaró inmediatamente. Algunas profesiones desaparecerán completamente. Según él, las líneas de soporte modernas ya funcionan con grandes modelos de lenguaje. Proporcionan respuestas instantáneas sin transferencias entre operadores y con mínima cantidad de errores. La eficiencia de tales sistemas es tan alta que el factor humano simplemente se vuelve redundante.
La misma tecnología se está implementando activamente en medicina. Los sistemas de IA aprenden en millones de pares "síntoma-diagnóstico". Y a menudo determinan causas de enfermedades más rápido que los médicos.
Sin embargo, el jefe de OpenAI también ve amenazas potenciales de un desarrollo tecnológico tan rápido. Advierte. Imaginen una situación cuando un estado hostil combina inteligencia artificial con ciberataques. Y en segundos borra saldos bancarios o detiene operaciones bursátiles. Así de mucho miedo infundió en la gente.
-
El jefe de OpenAI Sam Altman se pronunció con una advertencia seria sobre una crisis inminente en la seguridad de transacciones financieras. En una reunión en el Sistema de Reserva Federal de EE.UU., declaró que la mayoría de métodos de autenticación existentes ya no son capaces de resistir tecnologías modernas.
Los bancos que aún aceptan confirmaciones de voz para transferir grandes sumas de dinero son de particular preocupación. "Esto es una locura", enfatizó Altman. Explicando qué tan fácilmente las tecnologías modernas pueden imitar la voz humana. Creando falsificaciones realistas para eludir sistemas de protección.
El problema es mucho más amplio que la autenticación de voz. Las tecnologías han aprendido a crear falsificaciones de video convincentes que son prácticamente imposibles de distinguir de grabaciones reales. Según Altman, la industria financiera continúa viviendo con percepciones del pasado, sin darse cuenta de la escala de amenazas ya existentes.