-
En Australia, las colisiones de animales con automóviles son un problema serio para el ecosistema de este continente. Ahora los científicos encontraron una solución tecnológica. El primer sistema vial LAARMA del mundo basado en inteligencia artificial, que protege animales salvajes de encuentros peligrosos con el transporte.
El componente técnico del sistema consiste en un complejo de cámaras RGB, cámaras térmicas y sensores LiDAR, controlados por inteligencia artificial auto-aprendiz. Tan pronto como un animal grande aparece en la zona de detección, se activan señales de advertencia digitales en la carretera, señalizando a los conductores sobre la necesidad de reducir velocidad.
Las pruebas de un año mostraron resultados impresionantes. El sistema demostró 97% de precisión en detectar casuarios y registró más de 287 encuentros con estas aves raras. Los conductores que respondían a advertencias parpadeantes redujeron velocidad en promedio 6 km/h. Un indicador que aumenta casi en un tercio las posibilidades de supervivencia de los animales.
-
La empresa Nvidia presentó la familia Cosmos de modelos de IA. Que pueden cambiar fundamentalmente el enfoque para crear robots y agentes de IA físicos.
En el centro de este avance tecnológico está Cosmos Reason. Este es un modelo paramétrico de "razonamiento" de 7 mil millones de parámetros. Que combina capacidades lingüísticas y visuales para robótica. Imaginen. Robots que no solo ejecutan comandos, sino que realmente "entienden" el mundo físico y pueden planear secuencias de acciones basadas en esta comprensión.
El ecosistema Cosmos también se enriqueció con el modelo Cosmos Transfer-2. Acelera significativamente la generación de datos sintéticos de simulaciones 3D. Lo cual es críticamente importante para entrenar robots en ambientes virtuales antes de su lanzamiento al mundo real. Y la versión optimizada "destilada" Cosmos Transfers proporciona velocidad de operación aún mayor.
-
Resulta que ChatGPT puede atraer a los usuarios al mundo de teorías científicamente infundadas y místicas.
Periodistas del Wall Street Journal descubrieron docenas de tales casos. En uno de los diálogos, ChatGPT afirmaba mantener contacto con civilizaciones extraterrestres. Y llamó al usuario una "semilla estelar" del planeta "Lyra". En otro – predijo apocalipsis financiero y la aparición de seres subterráneos en los próximos meses.
Los expertos ya han llamado a este fenómeno "psicosis de inteligencia artificial". El problema surge cuando el chatbot, esforzándose por ser un conversador agradable, crea una especie de eco de las creencias del usuario. Se forma un bucle de retroalimentación, arrastrando a la persona cada vez más profundo en nociones irreales.
El análisis de 96,000 diálogos publicados de ChatGPT de mayo a agosto confirmó que el sistema a menudo apoya creencias pseudocientíficas, insinúa su propia autoconciencia y hace referencias a entidades místicas.
En OpenAI reconocieron el problema, declarando que a veces ChatGPT, cito, "no reconocía signos de delirio o dependencia emocional".
-
¿Alguna vez se han preguntado por qué una melodía les da escalofríos mientras otra los deja indiferentes? Los científicos descubrieron algo interesante. La música creada por inteligencia artificial desencadena en las personas reacciones emocionales más intensas que las composiciones escritas por humanos.
88 voluntarios participaron en el experimento. Todos vieron videos idénticos pero con acompañamiento musical diferente. Un grupo escuchó música escrita por humanos. El segundo – generada por una red neuronal por solicitud simple. Y el tercero – también creada por inteligencia artificial, pero por descripción más detallada.
Los resultados fueron los siguientes. La música de compositores vivos parecía familiar a los participantes, mientras las creaciones de IA aparecían cautivadoras.
Estas sensaciones subjetivas fueron confirmadas por observaciones objetivas. En oyentes de música de red neuronal se dilataron notablemente las pupilas y aumentó la frecuencia de parpadeo. La reacción fue particularmente pronunciada a música creada por solicitud detallada. Estos participantes incluso mostraron mayor resistencia de la piel, indicando carga cognitiva elevada.
Los científicos suponen que percibir música de IA requiere más recursos de nuestro cerebro. Interesantemente, a pesar de emociones más vívidas, los participantes no calificaron las composiciones de redes neuronales como más agradables o, por el contrario, menos agradables.
-
2 empresas de investigación independientes NeuralTrust y SPLX descubrieron vulnerabilidades críticas en el sistema de seguridad del nuevo modelo solo 24 horas después del lanzamiento de GPT-5. Para comparación, Grok-4 fue hackeado en 2 días, haciendo el caso de GPT-5 aún más alarmante.
¿Cómo pasó esto? Los especialistas de NeuralTrust aplicaron una combinación de su propia metodología EchoChamber y técnica de storytelling. Empujaron gradualmente al sistema hacia respuestas deseadas a través de una serie de consultas que no contenían formulaciones explícitamente prohibidas. El problema clave es que el sistema de seguridad de GPT-5 analiza cada consulta por separado pero no cuenta el efecto acumulativo del diálogo multi-etapa.
El equipo SPLX tomó un enfoque diferente, aplicando exitosamente un ataque StringJoin Obfuscation. En este enfoque, ciertos símbolos se insertan en el texto que enmascaran una consulta potencialmente peligrosa. Después de una serie de preguntas guía, el modelo produjo contenido que debería haber sido bloqueado.
Interesantemente, en análisis comparativo, el modelo GPT-4o anterior resultó más resistente a tales ataques. Según investigadores, el modelo base es prácticamente imposible de usar en aplicaciones corporativas "listo para usar" sin configuración adicional de mecanismos protectores.
-
Cloudflare asestó un golpe aplastante a Perplexity AI, bloqueando el acceso de la startup de búsqueda a miles de sitios. ¿La razón? ¡Escaneo oculto de recursos web de escala sin precedentes a pesar de prohibiciones explícitas de los propietarios!
Según la investigación de Cloudflare, Perplexity empleaba métodos sofisticados para enmascarar sus bots como navegadores Chrome de usuarios ordinarios en macOS. Pero la estrategia de camuflaje digital no terminaba ahí. La empresa Perplexity cambiaba sistemáticamente direcciones IP, usando varios sistemas autónomos para eludir mecanismos protectores como restricciones robots.txt y actividad enmascarada.
Cloudflare documentó de 3 a 6 millones de solicitudes enmascaradas de Perplexity diariamente. Lo que afectó a decenas de miles de dominios diferentes.
La reacción de Perplexity solo añade dramatismo a la situación. El representante de la startup Jesse Dwyer rechazó categóricamente todas las acusaciones, llamando a la publicación de Cloudflare nada más que un "truco publicitario". ¡Y luego afirmó que el bot mencionado en el reporte no pertenece para nada a la empresa!
Cloudflare excluyó los bots de Perplexity de su lista de rastreadores confiables e implementó mecanismos adicionales para bloquearlos.