Post Thumbnail

Geschlossene Microsoft- und Google-Repositories erwiesen sich als für Copilot zugänglich

Das israelische Unternehmen Lasso, das sich auf Cybersicherheit im Bereich der generativen künstlichen Intelligenz spezialisiert hat, entdeckte ein ernstes Sicherheitsproblem: Daten, die auch nur kurzzeitig im Internet verfügbar waren, existieren weiterhin im Gedächtnis von KI-Chatbots, selbst nachdem sie gelöscht oder in den privaten Modus versetzt wurden.

Das Ausmaß des Problems erwies sich als beeindruckend: Mehr als 20.000 GitHub-Repositories, die jetzt privat sind, sind immer noch über Microsoft Copilot zugänglich. Diese Sicherheitslücke betrifft über 16.000 Organisationen, darunter Technologieriesen wie Google, IBM, PayPal, Tencent und Microsoft selbst.

Die Geschichte begann damit, dass Lasso ihr eigenes Repository, das versehentlich für kurze Zeit öffentlich gemacht wurde, in den Antworten von Copilot entdeckte. “Wenn man im Web sucht, wird man diese Daten nicht sehen. Aber jede Person auf der Welt kann Copilot die richtige Frage stellen und diese Informationen erhalten”, erklärt Lasso-Mitbegründer Ofir Dror.

Die Untersuchung zeigte, dass das Problem mit dem Caching-Mechanismus der Bing-Suchmaschine von Microsoft zusammenhängt. Lasso analysierte eine Liste von Repositories, die zu irgendeinem Zeitpunkt im Jahr 2024 öffentlich waren und dann gelöscht oder in den privaten Modus versetzt wurden. Es stellte sich heraus, dass Daten aus diesen Repositories weiterhin über Copilot zugänglich sind.

Diese Entdeckung wirft ernsthafte Fragen zur Datensicherheit im Zeitalter der generativen KI auf. Selbst eine kurzzeitige Offenlegung vertraulicher Informationen kann zu langfristigen Folgen führen, da KI-Systeme diese Daten indizieren und speichern und sie potenziell für jeden Benutzer zugänglich machen, der die richtigen Fragen stellt.

Die Situation ist besonders bemerkenswert, weil sie die größten Technologieunternehmen der Welt betrifft, einschließlich des Entwicklers des Tools selbst – Microsoft. Dies zeigt, dass selbst Organisationen mit höchstem technischen Fachwissen mit neuen Sicherheitsherausforderungen konfrontiert werden können, die durch künstliche Intelligenzsysteme entstehen.

Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.
Latest News
IWF-Chefökonom verglich KI-Boom mit Dotcom-Blase

IWF-Chefökonom Pierre-Olivier Gourinchas erklärte, dass die Welt bereits die Hälfte des Weges bis zur geplatzten KI-Blase und einer neuen Finanzkrise zurückgelegt hat.

Forscher knackten 12 KI-Schutzsysteme

Wissen Sie, was Forscher von OpenAI, Anthropic, Google DeepMind und Harvard gerade herausgefunden haben? Sie versuchten, beliebte KI-Sicherheitssysteme zu knacken und fanden fast überall eine Umgehung. Sie überprüften 12 verbreitete Schutzansätze. Von intelligenten System-Prompt-Formulierungen bis zu externen Filtern, die gefährliche Anfragen abfangen sollen.

OpenAI hat 5 Jahre um $13 Milliarden in Billion zu verwandeln

Wissen Sie, in welcher Position sich OpenAI jetzt befindet? Laut Financial Times hat das Unternehmen 5 Jahre, um 13 Milliarden Dollar in eine Billion zu verwandeln. Und so sieht es in der Praxis aus.

Sam Altman verspricht, Menschlichkeit in ChatGPT zurückzubringen

OpenAI-Chef Sam Altman machte Erklärung nachdem es zahlreiche Offline- und Online-Proteste gegen Abschaltung des GPT-4o-Modells gab. Und dann Einschaltung, aber mit wildem Router. Ich erzählte darüber letzte Woche maximal ausführlich. Direktes Zitat des OpenAI-Chefs.

KI erwacht zum Leben: Warum Anthropic-Mitgründer seine Schöpfung fürchtet

Anthropic-Mitgründer Jack Clark veröffentlichte ein Essay, das einem unbehaglich wird. Er schrieb über die Natur moderner künstlicher Intelligenz, und seine Schlussfolgerungen klingen wie eine Warnung.