Comment fonctionne Claude : une fuite révèle les détails du fonctionnement de l’IA d’Anthropic

Post Thumbnail

La communauté des spécialistes dans le domaine de l’intelligence artificielle discute d’un événement inattendu. La publication du prompt système du modèle Claude de la société Anthropic. Ce document, qui définit les principes de fonctionnement et le comportement du système d’intelligence artificielle, est apparu dans le domaine public, provoquant une large résonance parmi les experts et les utilisateurs.

Le prompt publié impressionne par son ampleur – 16700 mots et 24000 tokens. À titre de comparaison, un document similaire d’OpenAI ne contient que 2200 mots. Une telle différence de volume indique des approches différentes des entreprises pour configurer leurs systèmes d’intelligence artificielle.

Le document décrit en détail de nombreux aspects du fonctionnement de Claude. Du formatage des réponses aux algorithmes spécifiques pour résoudre des problèmes. Par exemple, il contient des instructions spécifiques sur la façon dont le modèle doit compter les lettres dans les mots. Une partie importante du prompt est consacrée à l’interaction avec des systèmes externes. L’intégration avec le serveur, les algorithmes de recherche et les mécanismes de mise à jour des informations après une certaine date. Cela indique l’architecture complexe des systèmes d’intelligence artificielle modernes, qui va au-delà d’un modèle purement linguistique. Lien vers ce prompt complet dans la description.

Andrey Karpathy, qui occupait auparavant le poste de directeur de l’intelligence artificielle chez Tesla et faisait partie de l’équipe fondatrice d’OpenAI, a suggéré de considérer la fuite comme un catalyseur pour discuter d’une approche fondamentalement nouvelle de la formation des modèles. Au lieu de la méthode traditionnelle de réglage fin des poids d’un réseau neuronal, il a avancé l’idée d’éditer manuellement les prompts. Par analogie avec la façon dont une personne travaille avec des notes pour améliorer ses compétences. Selon lui, une telle approche pourrait aider les systèmes d’intelligence artificielle à mieux s’adapter au contexte et à se souvenir des stratégies efficaces pour résoudre des problèmes.

Cependant, tous les experts ne sont pas d’accord avec cette perspective. Les critiques pointent vers des problèmes potentiels. Les prompts autonomes peuvent introduire de la confusion dans le travail du modèle, et sans formation constante, l’effet de telles modifications peut s’avérer temporaire et limité.

Eh bien, il s’avère que la fuite du prompt système de Claude démontre que les systèmes d’intelligence artificielle modernes ne sont pas régis par des algorithmes abstraits. Mais par des instructions spécifiques et détaillées créées par l’homme. Ce qui rend leur comportement plus prévisible, mais en même temps plus limité par le cadre de ces instructions.

Почитать из последнего
UBTech enverra des robots Walker S2 servir à la frontière chinoise pour $37 millions
L'entreprise chinoise UBTech a remporté un contrat de $37 millions. Et enverra des robots humanoïdes Walker S2 servir à la frontière de la Chine avec le Vietnam. South China Morning Post rapporte que les robots interagiront avec les touristes et le personnel, effectueront des opérations logistiques, inspecteront les marchandises et patrouilleront le territoire. Et caractéristiquement — ils peuvent changer leur batterie de manière autonome.
Anthropic a révélé accidentellement un document interne sur "l'âme" de Claude
Anthropic a révélé accidentellement "l'âme" de l'intelligence artificielle à un utilisateur. Et ce n'est pas une métaphore. C'est un document interne tout à fait concret.
Jensen Huang a ordonné aux employés de Nvidia d'utiliser l'IA partout
Jensen Huang a annoncé une mobilisation totale sous la bannière de l'intelligence artificielle à l'intérieur de Nvidia. Et ce n'est plus une recommandation. C'est une exigence.
Les chatbots IA génèrent du contenu qui aggrave les troubles alimentaires
Une étude conjointe de l'Université Stanford et du Center for Democracy and Technology a montré un tableau inquiétant. Les chatbots avec intelligence artificielle représentent un risque sérieux pour les personnes souffrant de troubles alimentaires. Les scientifiques avertissent que les réseaux neuronaux distribuent des conseils nuisibles sur les régimes. Ils proposent des moyens de cacher le trouble et génèrent du "contenu inspirant pour perdre du poids" qui aggrave le problème.
OpenAGI a publié le modèle Lux qui dépasse Google et OpenAI
La startup OpenAGI a publié le modèle Lux pour le contrôle d'ordinateur et affirme que c'est une percée. Selon les benchmarks, le modèle dépasse d'une génération entière les analogues de Google, OpenAI et Anthropic. De plus, il fonctionne plus vite. Environ 1 seconde par étape au lieu de 3 secondes chez les concurrents. Et 10 fois moins cher en coût par traitement de 1 token.