ChatGPT Atlas est vulnérable aux injections de prompt et peut aider au phishing

Post Thumbnail

J’ai parlé de comment OpenAI a publié le navigateur ChatGPT Atlas. Et voici que les premiers utilisateurs ont déjà trouvé tout un bouquet de problèmes. Commençons par les choses de base. Le navigateur n’a pas de bloqueur de publicités intégré, pas de mode de lecture et pas de fonction de traduction de texte sur la page. Pour résumer un article ou le traduire, il faut demander au bot dans le chat.

Malheureusement, l’agent dans Atlas est vulnérable aux injections de prompt – des commandes malveillantes cachées pour les réseaux neuronaux que les attaquants placent dans les documents en couleur claire. Un « hacker blanc » a démontré une telle attaque : il a ajouté une fonction cachée « copier dans le presse-papiers » à un bouton sur le site. Quand l’assistant IA clique dessus, un lien malveillant est enregistré. L’utilisateur appuie sur Ctrl + V dans le chat – et l’agent ouvre docilement un faux PayPal ou Gmail. Où on demande d’entrer des données personnelles. En termes simples, l’IA devient complice de phishing.

Et maintenant sur la censure et les restrictions. Pas tous les articles ChatGPT peut analyser – par exemple, The New York Times bloque l’utilisation d’Atlas. Aussi l’assistant ne fait pas de résumé pour chaque vidéo en raison d’une modération trop prudente.

Aussi, en mode agent IA Atlas peut ralentir, se confondre et demander l’aide humaine, surtout si des pop-ups apparaissent sur le site. Un paradoxe émerge – c’est un outil technologiquement avancé avec de sérieuses vulnérabilités, sans fonctions de base d’un navigateur normal et avec une censure excessive. OpenAI a publié un produit qui impressionne simultanément par le concept et déçoit par l’exécution.

Почитать из последнего
UBTech enverra des robots Walker S2 servir à la frontière chinoise pour $37 millions
L'entreprise chinoise UBTech a remporté un contrat de $37 millions. Et enverra des robots humanoïdes Walker S2 servir à la frontière de la Chine avec le Vietnam. South China Morning Post rapporte que les robots interagiront avec les touristes et le personnel, effectueront des opérations logistiques, inspecteront les marchandises et patrouilleront le territoire. Et caractéristiquement — ils peuvent changer leur batterie de manière autonome.
Anthropic a révélé accidentellement un document interne sur "l'âme" de Claude
Anthropic a révélé accidentellement "l'âme" de l'intelligence artificielle à un utilisateur. Et ce n'est pas une métaphore. C'est un document interne tout à fait concret.
Jensen Huang a ordonné aux employés de Nvidia d'utiliser l'IA partout
Jensen Huang a annoncé une mobilisation totale sous la bannière de l'intelligence artificielle à l'intérieur de Nvidia. Et ce n'est plus une recommandation. C'est une exigence.
Les chatbots IA génèrent du contenu qui aggrave les troubles alimentaires
Une étude conjointe de l'Université Stanford et du Center for Democracy and Technology a montré un tableau inquiétant. Les chatbots avec intelligence artificielle représentent un risque sérieux pour les personnes souffrant de troubles alimentaires. Les scientifiques avertissent que les réseaux neuronaux distribuent des conseils nuisibles sur les régimes. Ils proposent des moyens de cacher le trouble et génèrent du "contenu inspirant pour perdre du poids" qui aggrave le problème.
OpenAGI a publié le modèle Lux qui dépasse Google et OpenAI
La startup OpenAGI a publié le modèle Lux pour le contrôle d'ordinateur et affirme que c'est une percée. Selon les benchmarks, le modèle dépasse d'une génération entière les analogues de Google, OpenAI et Anthropic. De plus, il fonctionne plus vite. Environ 1 seconde par étape au lieu de 3 secondes chez les concurrents. Et 10 fois moins cher en coût par traitement de 1 token.