ChatGPT Atlas ist anfällig für Prompt-Injektionen und kann beim Phishing helfen
Ich erzählte davon, dass OpenAI den Browser ChatGPT Atlas veröffentlichte. Und hier haben die ersten Nutzer bereits ein ganzes Bündel von Problemen gefunden. Beginnen wir mit den Grundlagen. Der Browser hat keinen eingebauten Werbeblocker, keinen Lesemodus und keine Funktion zur Textübersetzung auf der Seite. Um einen Artikel nachzuerzählen oder zu übersetzen, muss man den Bot im Chat bitten.
Leider ist der Agent in Atlas anfällig für Prompt-Injektionen – versteckte bösartige Befehle für neuronale Netze, die Angreifer in Dokumenten in heller Farbe platzieren. Ein “White Hacker” demonstrierte einen solchen Angriff: Er fügte eine versteckte “In Zwischenablage kopieren”-Funktion in einen Button auf der Website ein. Wenn der KI-Assistent darauf klickt, wird ein bösartiger Link gespeichert. Der Nutzer drückt Ctrl + V im Chat – und der Agent öffnet gehorsam gefälschtes PayPal oder Gmail. Wo nach persönlichen Daten gefragt wird. Einfach gesagt, KI wird zum Komplizen beim Phishing.
Und jetzt über Zensur und Einschränkungen. Nicht alle Artikel kann ChatGPT analysieren – zum Beispiel blockiert The New York Times die Nutzung von Atlas. Auch macht der Assistent nicht für jedes Video eine Zusammenfassung wegen übervorsichtiger Moderation.
Auch kann Atlas im KI-Agenten-Modus zögern, sich verwirren und um menschliche Hilfe bitten, besonders wenn Pop-ups auf der Website erscheinen. Es ergibt sich ein Paradox – dies ist ein technologisch fortschrittliches Werkzeug mit ernsthaften Schwachstellen, ohne Grundfunktionen eines normalen Browsers und mit übermäßiger Zensur. OpenAI veröffentlichte ein Produkt, das gleichzeitig mit dem Konzept beeindruckt und mit der Ausführung enttäuscht.