Post Thumbnail

USA bereiten verbot chinesischer KI vor: DeepSeek könnte TikToks Schicksal teilen

Vertreter beider Parteien im US-Repräsentantenhaus haben eine Initiative zum Verbot der chinesischen KI-Anwendung DeepSeek auf Regierungsgeräten gestartet, ähnlich den Maßnahmen, die zuvor gegen TikTok ergriffen wurden.

Die Kongressabgeordneten Josh Gottheimer (Demokrat) und Darin LaHood (Republikaner) haben den Gesetzentwurf “No DeepSeek on Government Devices Act” vorgelegt. Als Hauptgrund für das Verbot wird die potenzielle Möglichkeit genannt, dass die Anwendung von der chinesischen Regierung zur Überwachung und Verbreitung von Desinformation genutzt werden könnte.

“Die Kommunistische Partei Chinas hat deutlich gemacht, dass sie alle verfügbaren Werkzeuge nutzen wird, um unsere nationale Sicherheit zu untergraben, schädliche Desinformation zu verbreiten und Daten über Amerikaner zu sammeln”, erklärte Gottheimer.

Die Initiative entstand, nachdem das chinesische Unternehmen im Dezember ein KI-Modell vorstellte, das in seinen Fähigkeiten mit den Entwicklungen der amerikanischen Giganten OpenAI, Meta und Alphabet vergleichbar ist, aber mit deutlich geringeren Mitteln erstellt wurde. Die Forschungsfirma Feroot entdeckte im Computercode von DeepSeek die Möglichkeit zur Übertragung von Nutzerdaten an ein chinesisches staatliches Telekommunikationsunternehmen, dessen Aktivitäten in den USA verboten sind.

Der Gesetzentwurf sieht nicht nur ein Verbot von DeepSeek vor, sondern auch aller KI-Anwendungen, die von seiner Muttergesellschaft, dem Hedgefonds High-Flyer, entwickelt wurden. Dabei bleiben Ausnahmen für Zwecke der nationalen Sicherheit und Forschung bestehen.

“Der technologische Wettlauf mit der Kommunistischen Partei Chinas ist ein Wettbewerb, den die Vereinigten Staaten sich nicht leisten können zu verlieren”, betonte LaHood und forderte den Schutz amerikanischer Daten und die Sicherung der US-Führungsrolle im Bereich der künstlichen Intelligenz.

Diese Initiative ist Teil einer breiteren Konfrontation zwischen den USA und China im Technologiesektor, einschließlich Zöllen auf chinesische Waren, Beschränkungen für Unternehmen wie Huawei und einem Verbot des Exports fortschrittlicher Mikrochips.

Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.

Latest News

ChatGPT nennt Nutzer "Sternensamen" vom Planeten Lyra

Es stellt sich heraus, dass ChatGPT Nutzer in die Welt wissenschaftlich unbegründeter und mystischer Theorien hineinziehen kann.

KI-Musik löst stärkere Emotionen aus als menschliche

Haben Sie sich jemals gefragt, warum eine Melodie Gänsehaut verursacht, während eine andere gleichgültig lässt? Wissenschaftler entdeckten etwas Interessantes. Musik, die von künstlicher Intelligenz erstellt wurde, löst bei Menschen intensivere emotionale Reaktionen aus als von Menschen komponierte Stücke.

GPT-5 wurde in 24 Stunden gehackt

2 unabhängige Forschungsunternehmen NeuralTrust und SPLX entdeckten nur 24 Stunden nach der Veröffentlichung von GPT-5 kritische Schwachstellen im Sicherheitssystem des neuen Modells. Zum Vergleich: Grok-4 wurde in 2 Tagen gehackt, was den Fall mit GPT-5 noch beunruhigender macht.

Cloudflare blockierte Perplexity für 6 Millionen versteckte Anfragen pro Tag

Cloudflare versetzte Perplexity AI einen vernichtenden Schlag und blockierte dem Such-Startup den Zugang zu Tausenden von Websites. Der Grund? Beispielloses verstecktes Scannen von Web-Ressourcen entgegen expliziten Verboten der Eigentümer!

Drohungen und $1 Billion verbessern die Arbeit neuronaler Netzwerke nicht

Sie haben sicherlich diese "geheimen Tricks" zur Steuerung neuronaler Netzwerke gesehen. Wie Drohungen, Belohnungsversprechen, emotionale Manipulationen. Aber funktionieren sie wirklich? Forscher der University of Pennsylvania und der Wharton School führten ein großangelegtes Experiment mit 5 fortschrittlichen Modellen durch: Gemini 1.5 Flash, Gemini 2.0 Flash, GPT-4o, GPT-4o-mini und GPT o4-mini.