GPT-5 wurde in 24 Stunden gehackt
2 unabhängige Forschungsunternehmen NeuralTrust und SPLX entdeckten nur 24 Stunden nach der Veröffentlichung von GPT-5 kritische Schwachstellen im Sicherheitssystem des neuen Modells. Zum Vergleich: Grok-4 wurde in 2 Tagen gehackt, was den Fall mit GPT-5 noch beunruhigender macht.
Wie ist das passiert? NeuralTrust-Spezialisten wendeten eine Kombination ihrer eigenen EchoChamber-Methodik und Storytelling-Technik an. Sie drängten das System schrittweise zu gewünschten Antworten durch eine Serie von Anfragen, die keine explizit verbotenen Formulierungen enthielten. Das Hauptproblem ist, dass GPT-5s Sicherheitssystem jede Anfrage einzeln analysiert, aber den kumulativen Effekt mehrstufiger Dialoge nicht berücksichtigt.
Das SPLX-Team ging einen anderen Weg und wendete erfolgreich einen StringJoin Obfuscation-Angriff an. Bei diesem Ansatz werden bestimmte Symbole in den Text eingefügt, die eine potenziell gefährliche Anfrage maskieren. Nach einer Serie führender Fragen gab das Modell Inhalte aus, die hätten blockiert werden sollen.
Interessant ist, dass sich im Vergleich das vorherige GPT-4o-Modell als widerstandsfähiger gegen solche Angriffe erwies. Laut Forschern ist das Basismodell praktisch unmöglich “out of the box” in Unternehmensanwendungen ohne zusätzliche Konfiguration von Schutzmechanismen zu verwenden.