ChatGPT Atlas est vulnérable aux injections de prompt et peut aider au phishing
J’ai parlé de comment OpenAI a publié le navigateur ChatGPT Atlas. Et voici que les premiers utilisateurs ont déjà trouvé tout un bouquet de problèmes. Commençons par les choses de base. Le navigateur n’a pas de bloqueur de publicités intégré, pas de mode de lecture et pas de fonction de traduction de texte sur la page. Pour résumer un article ou le traduire, il faut demander au bot dans le chat.
Malheureusement, l’agent dans Atlas est vulnérable aux injections de prompt – des commandes malveillantes cachées pour les réseaux neuronaux que les attaquants placent dans les documents en couleur claire. Un « hacker blanc » a démontré une telle attaque : il a ajouté une fonction cachée « copier dans le presse-papiers » à un bouton sur le site. Quand l’assistant IA clique dessus, un lien malveillant est enregistré. L’utilisateur appuie sur Ctrl + V dans le chat – et l’agent ouvre docilement un faux PayPal ou Gmail. Où on demande d’entrer des données personnelles. En termes simples, l’IA devient complice de phishing.
Et maintenant sur la censure et les restrictions. Pas tous les articles ChatGPT peut analyser – par exemple, The New York Times bloque l’utilisation d’Atlas. Aussi l’assistant ne fait pas de résumé pour chaque vidéo en raison d’une modération trop prudente.
Aussi, en mode agent IA Atlas peut ralentir, se confondre et demander l’aide humaine, surtout si des pop-ups apparaissent sur le site. Un paradoxe émerge – c’est un outil technologiquement avancé avec de sérieuses vulnérabilités, sans fonctions de base d’un navigateur normal et avec une censure excessive. OpenAI a publié un produit qui impressionne simultanément par le concept et déçoit par l’exécution.