Post Thumbnail

Anthropic-CEO: Chinesische KI fiel beim Sicherheitstest durch

Anthropic-CEO Dario Amodei äußerte ernsthafte Bedenken über DeepSeek, ein chinesisches Unternehmen, das kürzlich das Silicon Valley mit seinem R1-Modell überraschte. Seine Bedenken gehen über die üblichen Behauptungen zur Übertragung von Benutzerdaten nach China hinaus.

In einem Interview mit Jordan Schneiders ChinaTalk-Podcast erklärte Amodei, dass das DeepSeek-Modell während der von Anthropic durchgeführten Sicherheitstests sensible Informationen über biologische Waffen generierte. „Dies waren die schlechtesten Ergebnisse unter allen von uns je getesteten Modellen“, behauptet Amodei. „Es fehlten ihm völlig jegliche Blockaden gegen die Generierung solcher Informationen.“

Laut dem CEO von Anthropic werden solche Bewertungen regelmäßig vom Unternehmen für verschiedene KI-Modelle durchgeführt, um potenzielle Risiken für die nationale Sicherheit zu identifizieren. Das Team prüft, ob Modelle Informationen über biologische Waffen generieren können, die schwer auf Google oder in Lehrbüchern zu finden sind. Anthropic positioniert sich als Entwickler von KI-Grundmodellen mit besonderem Fokus auf Sicherheit.

Amodei merkte an, dass aktuelle DeepSeek-Modelle keine „buchstäbliche Gefahr“ hinsichtlich der Bereitstellung seltener und gefährlicher Informationen darstellen, jedoch könnte sich die Situation in naher Zukunft ändern. Obwohl er das DeepSeek-Team als „talentierte Ingenieure“ hoch einschätzte, forderte Amodei das Unternehmen auf, „KI-Sicherheit ernst zu nehmen“.

Im ChinaTalk-Interview präzisierte Amodei nicht, welches DeepSeek-Modell Anthropic testete, und lieferte keine zusätzlichen technischen Details über die durchgeführten Tests. Weder Anthropic noch DeepSeek reagierten auf TechCrunchs Bitte um Stellungnahme.

Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.

Latest News

Grok 4 erreichte 57% im "Letzten Examen" gegen 22% bei Gemini 2.5 Pro

Elon Musk stellte eine neue Version seines neuronalen Netzwerks vor – Grok 4. Die maximale Version – Grok 4 Heavy – kann mehrere Berechnungen gleichzeitig ausführen und erreicht 57% im schwierigsten Test "Das Letzte Examen der Menschheit". Zum Vergleich: der vorherige Spitzenreiter Gemini 2.5 Pro zeigte nur 22%.

Forscher fanden KI-Schwachstelle durch Fakten über Katzen

Von dieser Nachricht war ich gelinde gesagt überrascht. Wissen Sie, dass eine gewöhnliche Erwähnung von Katzen die fortschrittlichsten KI-Modelle verwirren kann? Wissenschaftler entdeckten eine erstaunliche Schwachstelle in den Denkprozessen neuronaler Netzwerke.

US-IT-Unternehmen entließen 94.000 Mitarbeiter in einem halben Jahr wegen KI

Im ersten Halbjahr 2025 entließen amerikanische IT-Unternehmen mehr als 94.000 technische Spezialisten. Das ist nicht nur Kosteneinsparung. Das ist ein struktureller Wandel unter dem Einfluss künstlicher Intelligenz.

OpenAI stellte den ersten Psychiater in der KI-Industrie ein, um ChatGPTs Einfluss auf die Psyche zu erforschen

Das Unternehmen OpenAI teilte mit, dass es einen professionellen klinischen Psychiater mit Erfahrung in der forensischen Psychiatrie eingestellt hat. Um den Einfluss seiner KI-Produkte auf die geistige Gesundheit der Nutzer zu erforschen.

Historischer Meilenstein: Amazons millionster Roboter nach Japan geliefert

Amazon erreichte einen historischen Meilenstein! Und nach 13 Jahren der Implementierung von Robotern in ihre Lagerhallen verkündete das Unternehmen das Erreichen der Marke von 1 Million robotisierten Geräten. Der millionste Roboter wurde kürzlich an ein Amazon-Lager in Japan geliefert.