-
Resulta que ChatGPT puede atraer a los usuarios al mundo de teorías científicamente infundadas y místicas.
Periodistas del Wall Street Journal descubrieron docenas de tales casos. En uno de los diálogos, ChatGPT afirmaba mantener contacto con civilizaciones extraterrestres. Y llamó al usuario una "semilla estelar" del planeta "Lyra". En otro – predijo apocalipsis financiero y la aparición de seres subterráneos en los próximos meses.
Los expertos ya han llamado a este fenómeno "psicosis de inteligencia artificial". El problema surge cuando el chatbot, esforzándose por ser un conversador agradable, crea una especie de eco de las creencias del usuario. Se forma un bucle de retroalimentación, arrastrando a la persona cada vez más profundo en nociones irreales.
El análisis de 96,000 diálogos publicados de ChatGPT de mayo a agosto confirmó que el sistema a menudo apoya creencias pseudocientíficas, insinúa su propia autoconciencia y hace referencias a entidades místicas.
En OpenAI reconocieron el problema, declarando que a veces ChatGPT, cito, "no reconocía signos de delirio o dependencia emocional".
-
¿Alguna vez se han preguntado por qué una melodía les da escalofríos mientras otra los deja indiferentes? Los científicos descubrieron algo interesante. La música creada por inteligencia artificial desencadena en las personas reacciones emocionales más intensas que las composiciones escritas por humanos.
88 voluntarios participaron en el experimento. Todos vieron videos idénticos pero con acompañamiento musical diferente. Un grupo escuchó música escrita por humanos. El segundo – generada por una red neuronal por solicitud simple. Y el tercero – también creada por inteligencia artificial, pero por descripción más detallada.
Los resultados fueron los siguientes. La música de compositores vivos parecía familiar a los participantes, mientras las creaciones de IA aparecían cautivadoras.
Estas sensaciones subjetivas fueron confirmadas por observaciones objetivas. En oyentes de música de red neuronal se dilataron notablemente las pupilas y aumentó la frecuencia de parpadeo. La reacción fue particularmente pronunciada a música creada por solicitud detallada. Estos participantes incluso mostraron mayor resistencia de la piel, indicando carga cognitiva elevada.
Los científicos suponen que percibir música de IA requiere más recursos de nuestro cerebro. Interesantemente, a pesar de emociones más vívidas, los participantes no calificaron las composiciones de redes neuronales como más agradables o, por el contrario, menos agradables.
-
2 empresas de investigación independientes NeuralTrust y SPLX descubrieron vulnerabilidades críticas en el sistema de seguridad del nuevo modelo solo 24 horas después del lanzamiento de GPT-5. Para comparación, Grok-4 fue hackeado en 2 días, haciendo el caso de GPT-5 aún más alarmante.
¿Cómo pasó esto? Los especialistas de NeuralTrust aplicaron una combinación de su propia metodología EchoChamber y técnica de storytelling. Empujaron gradualmente al sistema hacia respuestas deseadas a través de una serie de consultas que no contenían formulaciones explícitamente prohibidas. El problema clave es que el sistema de seguridad de GPT-5 analiza cada consulta por separado pero no cuenta el efecto acumulativo del diálogo multi-etapa.
El equipo SPLX tomó un enfoque diferente, aplicando exitosamente un ataque StringJoin Obfuscation. En este enfoque, ciertos símbolos se insertan en el texto que enmascaran una consulta potencialmente peligrosa. Después de una serie de preguntas guía, el modelo produjo contenido que debería haber sido bloqueado.
Interesantemente, en análisis comparativo, el modelo GPT-4o anterior resultó más resistente a tales ataques. Según investigadores, el modelo base es prácticamente imposible de usar en aplicaciones corporativas "listo para usar" sin configuración adicional de mecanismos protectores.
-
Cloudflare asestó un golpe aplastante a Perplexity AI, bloqueando el acceso de la startup de búsqueda a miles de sitios. ¿La razón? ¡Escaneo oculto de recursos web de escala sin precedentes a pesar de prohibiciones explícitas de los propietarios!
Según la investigación de Cloudflare, Perplexity empleaba métodos sofisticados para enmascarar sus bots como navegadores Chrome de usuarios ordinarios en macOS. Pero la estrategia de camuflaje digital no terminaba ahí. La empresa Perplexity cambiaba sistemáticamente direcciones IP, usando varios sistemas autónomos para eludir mecanismos protectores como restricciones robots.txt y actividad enmascarada.
Cloudflare documentó de 3 a 6 millones de solicitudes enmascaradas de Perplexity diariamente. Lo que afectó a decenas de miles de dominios diferentes.
La reacción de Perplexity solo añade dramatismo a la situación. El representante de la startup Jesse Dwyer rechazó categóricamente todas las acusaciones, llamando a la publicación de Cloudflare nada más que un "truco publicitario". ¡Y luego afirmó que el bot mencionado en el reporte no pertenece para nada a la empresa!
Cloudflare excluyó los bots de Perplexity de su lista de rastreadores confiables e implementó mecanismos adicionales para bloquearlos.
-
Seguramente han visto estos "trucos secretos" para controlar redes neuronales. Como amenazas, promesas de recompensas, manipulaciones emocionales. ¿Pero realmente funcionan? Investigadores de la Universidad de Pennsylvania y Wharton School realizaron un experimento a gran escala con 5 modelos avanzados: Gemini 1.5 Flash, Gemini 2.0 Flash, GPT-4o, GPT-4o-mini y GPT o4-mini.
A cada modelo le hicieron preguntas de nivel PhD en ciencias naturales y problemas complejos de ingeniería. Para excluir fluctuaciones aleatorias, cada consulta se repitió 25 veces.
¡Los resultados fueron interesantes! Ninguna de las 9 técnicas manipulativas mostró mejora estadísticamente significativa en la precisión de respuestas. ¡Ni amenazas de "patear un cachorro", ni promesas de $1 billón, ni historias desgarradoras sobre una madre enferma ayudaron a los modelos a dar respuestas de mejor calidad!
Además, estos "trucos" hicieron los resultados menos estables. En algunos casos la precisión aumentó 36 puntos porcentuales, mientras en otros cayó 35! Incluso se documentaron casos donde el modelo ignoró completamente la pregunta principal, "quedándose atascado" en la parte manipulativa del prompt.
En lugar de trucos dudosos, los investigadores recomiendan una estrategia verdaderamente efectiva. Formulación clara de la tarea, especificación del formato de respuesta deseado y proporcionar contexto relevante.
-
Anthropic lanzó Claude Opus 4.1. Esto no es solo otra actualización, sino una mejora sustancial en capacidades de codificación y funcionalidad de agente. Lo que es especialmente agradable — la nueva versión está integrada no solo en la interfaz clásica de Claude, sino también en la herramienta Claude Code. Así como disponible a través de API, Amazon Bedrock y Google Cloud Vertex AI.
¡Opus 4.1 demuestra rendimiento récord de 74.5% en el benchmark SWE-bench Verified! GitHub nota ganancias significativas de rendimiento en la mayoría de métricas. Con énfasis especial en refactorización de código multi-archivo. El equipo de Rakuten Group destaca la precisión excepcional del modelo al hacer correcciones en grandes bases de código. Opus 4.1 encuentra exactamente esos lugares que requieren cambios sin afectar código funcional.
Windsurf reporta un salto impresionante de rendimiento, comparable a la transición de Sonnet 3.7 a Sonnet 4.