Post Thumbnail

Cómo OpenAI se convirtió en el mal corporativo: el escándalo de las citaciones

¿Sabéis qué está pasando en el mundo de la inteligencia artificial? Mientras todos admiran los últimos logros de OpenAI, la empresa se está convirtiendo silenciosamente en ese mismo mal corporativo contra el que supuestamente luchaban. Y aquí tenéis un ejemplo fresco – una historia que explotó Twitter.

Entonces, hay un tipo llamado Nathan Calvin. Un abogado ordinario de una minúscula organización sin fines de lucro Encode. Solo 3 personas en la empresa. Se dedican a lo que intentan hacer la industria de la inteligencia artificial al menos un poquito más segura y transparente. En particular, promovieron un proyecto de ley californiano que debía obligar a los gigantes de la IA a jugar según reglas justas: transparencia, seguridad de los modelos, protección de informantes. Suena razonable, ¿verdad?

Pero aquí está el problema – a OpenAI no le gustó nada. Y aquí empieza lo más interesante. La empresa que se posiciona como el salvador de la humanidad decidió jugar sucio. Nathan recibe de repente una citación judicial. Exigen correspondencia personal con legisladores de California, estudiantes, ex-empleados de OpenAI. Todo lo que hay. Enlace en la descripción.

Y ahora lo más gracioso – ¡esta citación supuestamente está relacionada con la demanda de OpenAI contra Elon Musk! Sí, ese mismo Musk al que acusan de organizar algún tipo de conspiración contra ellos a principios de 2025. Cubriéndose con este caso, OpenAI ahora puede intimidar a todos los indeseables. Además, la conexión entre la correspondencia de Nathan sobre el proyecto de ley y el caso con Musk es un misterio completo. Incluso el juez no aguantó y criticó a OpenAI por abuso de procedimiento y presión excesiva.

Imaginad el cuadro. 3 abogados contra una máquina corporativa con recursos infinitos. Esto no es un proceso judicial – es intimidación banal. Y OpenAI lo entiende perfectamente. ¿Para qué discutir sobre el fondo cuando se puede simplemente aplastar con la masa? Mientras el hilo obtiene 6 millones de visualizaciones y se viraliza por todo el internet, la empresa misma guarda silencio. Incómodo, ¿no?

La ironía es que el proyecto de ley igual fue firmado hace un par de semanas. Pero OpenAI dio una lección a todos los demás. ¿Queréis criticarnos? – preparaos para una guerra jurídica. Así es la misión de crear inteligencia artificial segura para el bien de toda la humanidad. Cuando una corporación empieza a estrangular a quienes intentan hacerla más segura – es hora de pensar quién es la verdadera amenaza aquí.

Autor: AIvengo
Latest News
UBTech enviará robots Walker S2 a servir en la frontera de China por $37 millones

La compañía china UBTech ganó un contrato por $37 millones. Y enviará robots humanoides Walker S2 a servir en la frontera de China con Vietnam. South China Morning Post informa que los robots interactuarán con turistas y personal, realizarán operaciones logísticas, inspeccionarán carga y patrullarán el territorio. Y característicamente — pueden cambiar su batería de forma autónoma.

Anthropic reveló accidentalmente un documento interno sobre el "alma" de Claude

Anthropic reveló accidentalmente el "alma" de la inteligencia artificial a un usuario. Y esto no es una metáfora. Este es un documento interno bastante específico.

Jensen Huang ordenó a los empleados de Nvidia usar IA en todas partes

Jensen Huang anunció una movilización total bajo la bandera de la inteligencia artificial dentro de Nvidia. Y esto ya no es una recomendación. Esto es un requisito.

Los chatbots de IA generan contenido que agrava los trastornos alimentarios

Un estudio conjunto de la Universidad de Stanford y el Center for Democracy and Technology mostró un panorama preocupante. Los chatbots con inteligencia artificial representan un riesgo serio para personas con trastornos alimentarios. Los científicos advierten que las redes neuronales distribuyen consejos dañinos sobre dietas. Sugieren formas de ocultar el trastorno y generan "contenido inspirador para bajar de peso" que agrava el problema.

OpenAGI lanzó el modelo Lux que supera a Google y OpenAI

La startup OpenAGI lanzó el modelo Lux para control de computadora y afirma que esto es un avance. Según los benchmarks, el modelo supera por una generación completa a los análogos de Google, OpenAI y Anthropic. Además, funciona más rápido. Aproximadamente 1 segundo por paso en lugar de 3 segundos en los competidores. Y 10 veces más barato en costo por procesamiento de 1 token.