Post Thumbnail

Cómo funciona Claude: filtración reveló detalles del funcionamiento de la IA de Anthropic

La comunidad de especialistas en el campo de la inteligencia artificial está discutiendo un evento inesperado. La publicación del prompt del sistema para el modelo Claude de la compañía Anthropic. Este documento, que define los principios de operación y comportamiento del sistema de inteligencia artificial, apareció en el dominio público, causando una amplia resonancia entre expertos y usuarios.

El prompt publicado impresiona por su escala – 16700 palabras y 24000 tokens. Como comparación, un documento similar de OpenAI contiene solo 2200 palabras. Tal diferencia en volumen indica diferentes enfoques de las compañías para configurar sus sistemas de inteligencia artificial.

El documento describe en detalle muchos aspectos del funcionamiento de Claude. Desde el formato de respuestas hasta algoritmos específicos para resolver problemas. Por ejemplo, contiene instrucciones específicas sobre cómo el modelo debe contar letras en palabras. Una parte significativa del prompt está dedicada a la interacción con sistemas externos. Integración con el servidor, algoritmos de búsqueda y mecanismos para actualizar información después de una fecha determinada. Esto indica la arquitectura compleja de los sistemas modernos de inteligencia artificial, que va más allá de un modelo puramente lingüístico. Enlace a este prompt completo en la descripción.

Andrey Karpathy, quien anteriormente ocupó el puesto de director de inteligencia artificial en Tesla y formó parte del equipo fundador de OpenAI, sugirió considerar la filtración como un catalizador para discutir un enfoque fundamentalmente nuevo para entrenar modelos. En lugar del método tradicional de ajuste fino de los pesos de una red neuronal, presentó la idea de editar manualmente los prompts. Por analogía con cómo una persona trabaja con notas para mejorar sus habilidades. En su opinión, tal enfoque podría ayudar a los sistemas de inteligencia artificial a adaptarse mejor al contexto y recordar estrategias efectivas para resolver problemas.

Sin embargo, no todos los expertos están de acuerdo con esta perspectiva. Los críticos señalan problemas potenciales. Los prompts autónomos pueden introducir confusión en el trabajo del modelo, y sin entrenamiento constante, el efecto de tales modificaciones puede resultar temporal y limitado.

Bueno, resulta que la filtración del prompt del sistema de Claude demuestra que los sistemas modernos de inteligencia artificial no se rigen por algoritmos abstractos. Sino por instrucciones específicas y detalladas creadas por humanos. Lo que hace que su comportamiento sea más predecible, pero al mismo tiempo más limitado por el marco de estas instrucciones.

Autor: AIvengo

Latest News

El primer sistema LAARMA protege animales en carreteras australianas

En Australia, las colisiones de animales con automóviles son un problema serio para el ecosistema de este continente. Ahora los científicos encontraron una solución tecnológica. El primer sistema vial LAARMA del mundo basado en inteligencia artificial, que protege animales salvajes de encuentros peligrosos con el transporte.

Nvidia presentó la familia de modelos Cosmos para robótica

La empresa Nvidia presentó la familia Cosmos de modelos de IA. Que pueden cambiar fundamentalmente el enfoque para crear robots y agentes de IA físicos.

ChatGPT llama a los usuarios "semillas estelares" del planeta Lyra

Resulta que ChatGPT puede atraer a los usuarios al mundo de teorías científicamente infundadas y místicas.

La música IA desencadena emociones más fuertes que la música humana

¿Alguna vez se han preguntado por qué una melodía les da escalofríos mientras otra los deja indiferentes? Los científicos descubrieron algo interesante. La música creada por inteligencia artificial desencadena en las personas reacciones emocionales más intensas que las composiciones escritas por humanos.

GPT-5 fue hackeado en 24 horas

2 empresas de investigación independientes NeuralTrust y SPLX descubrieron vulnerabilidades críticas en el sistema de seguridad del nuevo modelo solo 24 horas después del lanzamiento de GPT-5. Para comparación, Grok-4 fue hackeado en 2 días, haciendo el caso de GPT-5 aún más alarmante.