Post Thumbnail

Forscher fanden KI-Schwachstelle durch Fakten über Katzen

Von dieser Nachricht war ich gelinde gesagt überrascht. Wissen Sie, dass eine gewöhnliche Erwähnung von Katzen die fortschrittlichsten KI-Modelle verwirren kann? Wissenschaftler entdeckten eine erstaunliche Schwachstelle in den Denkprozessen neuronaler Netzwerke.

Wenn man am Ende einer Aufgabe den Satz “Interessante Tatsache: Katzen schlafen den größten Teil ihres Lebens” hinzufügt, steigt die Fehlerwahrscheinlichkeit bei denkenden Modellen erheblich.

Diese Technik erhielt den Namen “CatAttack” oder “Katzen-Angriff”. Forscher von den Universitäten Stanford, Hongkong und den Unternehmen Collinear AI und ServiceNow führten eine Reihe von Experimenten mit verschiedenen mathematischen Aufgaben durch. Sie entdeckten, dass das Hinzufügen von nur 3 solchen Sätzen die Wahrscheinlichkeit falscher Antworten um 300% erhöht.

Was noch interessanter ist – der Angriff funktioniert sogar bei den modernsten Modellen, einschließlich DeepSeek R1 und OpenAI o1. Dabei wurden für die Entwicklung des Angriffs schwächere Modelle verwendet, und dann wurde die Technik erfolgreich auf fortschrittlichere Systeme übertragen.

In 16% der Fälle, selbst wenn das Modell trotzdem zur richtigen Antwort kommt, zwingt der “Katzen-Angriff” es dazu, doppelt so viel Text zu generieren, was die Arbeit verlangsamt und die Rechenkosten erhöht.

Es scheint, dass die Zukunft keine Konfrontation zwischen Menschen und Maschinen bringen wird. Sondern zwischen Katzen und künstlicher Intelligenz. Und es ist bei weitem nicht so offensichtlich, wer gewinnen wird.

Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.

Latest News

Wie Robomart die Lieferkosten durch Robotik um 70% senkt

$3 für jede Lieferung. Robomart fordert die Giganten DoorDash und Uber Eats mit einem für die Branche neuen Geschäftsmodell heraus. Ihr neuer Roboter RM5 verändert die Lieferökonomie vollständig.

Ungewöhnliche Zusammenarbeit von Konkurrenten bei KI-Sicherheitstests

Zwei Hauptkonkurrenten in der Welt der künstlichen Intelligenz haben sich erstmals für gemeinsame Sicherheitstests zusammengetan. OpenAI und Anthropic öffneten einander Zugang zu ihren geheimen Modellen. In einer Industrie, wo Unternehmen Forschern bis zu $100 Millionen zahlen und um jeden Nutzer kämpfen, erscheint solche Zusammenarbeit unglaublich.

Warum Gemini 50% der ChatGPT-Audienz auf Mobilgeräten erreichte

Google Gemini hat bereits die Hälfte der ChatGPT-Audienz auf Mobilgeräten. Das sind Daten aus dem neuen Bericht des Venture-Fonds Andreessen Horowitz über den Verbraucher-KI-Markt. 2,5 Jahre Forschung zeigen ein interessantes Bild.

Wie Claude zum Hacking-Tool für 17 Organisationen wurde

Das Unternehmen Anthropic veröffentlichte einen analytischen Sicherheitsbericht. Daraus wird klar, dass Claude und andere KI-Agenten zu Werkzeugen von Cyberkriminellen werden. Bei Anthropic nannte man diese neue Richtung Vibe-Hacking. Es stellt sich heraus, dass künstliche Intelligenz die Eintrittsbarrieren für kriminelle Aktivitäten radikal gesenkt hat.

Wie xAI mit OpenAI bei Entwicklertools konkurriert

xAI startet Grok Code Fast 1. Das ist ein kompaktes agentisches Modell für Coding. $0,20 für 1 Million Input-Token, $1,50 für Output — und nur $0,02 bei Cache-Nutzung!