Post Thumbnail

DeepSeek wird den Quellcode seiner KI-Modelle offenlegen

Das chinesische Startup DeepSeek, das das Silicon Valley mit der hohen Leistung seiner KI-Modelle überrascht hat, kündigte einen beispiellosen Schritt an – die Veröffentlichung wichtiger Codes und Daten als Open Access. Das Unternehmen plant, ab nächster Woche seine Code-Repositories mit allen Entwicklern und Forschern zu teilen.

“Wir sind ein kleines Team, das AGI erforscht. Ab nächster Woche werden wir den Zugang zu 5 Repositories öffnen und unseren bescheidenen, aber aufrichtigen Fortschritt in voller Transparenz teilen”, erklärte das Unternehmen in seinem X-Account.

Das 20 Monate alte Startup aus Hangzhou beabsichtigt, weiter zu gehen als seine Konkurrenten, indem es nicht nur Zugang zu Modellen, sondern auch zu Basis-Code, Trainingsdaten und Entwicklungsmethodik gewährt. Dies wird es jedem ermöglichen, den Code, der dem hochgelobten R1-Modell und anderen Unternehmensplattformen zugrunde liegt, herunterzuladen, zu modifizieren und zu verbessern.

DeepSeeks Entscheidung stärkt den Trend zur offenen KI-Entwicklung, der mehr Unterstützer gewann, nachdem die Modelle des Unternehmens Konkurrenten von OpenAI und Meta in Benchmark-Tests übertrafen. Im Gegensatz zu OpenAI, das als teilweise offenes Projekt begann, sich aber später von dieser Politik entfernte, erklärt DeepSeek seine Absicht, alle Aspekte der Entwicklung transparent zu machen.

Unternehmensgründer Liang Wenfeng, der zuvor einen quantitativen Hedgefonds leitete, betonte in einem seltenen Interview mit chinesischen Medien, dass das Unternehmen die Kommerzialisierung seiner KI-Modelle nicht priorisiert und Vorteile in Open Source sieht. “Keine Elfenbeintürme – nur reine Garage-Innovations-Energie und community-getriebene Entwicklung”, erklärte das Unternehmen.

Dieser Schritt könnte erhebliche Auswirkungen auf das Rennen zwischen den USA und China bei der Entwicklung fortgeschrittener KI-Modelle haben. Während Investoren Dutzende Milliarden Dollar in große amerikanische KI-Startups wie Anthropic PBC und xAI investiert haben und signifikante Renditen erwarten, kann sich DeepSeek, das keine externe Finanzierung offengelegt hat, weniger auf den Aufbau eines Ertragsmodells konzentrieren.

DeepSeek hat bereits größere Konkurrenten wie Baidu gezwungen, das Open-Source-Konzept zu übernehmen. Allerdings halten globale Akteure wie OpenAI und Anthropic ihre KI-Modelle, Repositories und Daten weiterhin geschlossen, was den Schritt des chinesischen Startups für die Branchenentwicklung noch bedeutsamer macht.

Experten merken an, dass DeepSeeks offener Ansatz die Entwicklung der KI-Technologie durch kollektive Anstrengungen von Entwicklern weltweit beschleunigen könnte, obwohl dies auch Sicherheitsbedenken bei den Regierungen der USA und Australiens hervorruft.

Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.

Latest News

ChatGPT nennt Nutzer "Sternensamen" vom Planeten Lyra

Es stellt sich heraus, dass ChatGPT Nutzer in die Welt wissenschaftlich unbegründeter und mystischer Theorien hineinziehen kann.

KI-Musik löst stärkere Emotionen aus als menschliche

Haben Sie sich jemals gefragt, warum eine Melodie Gänsehaut verursacht, während eine andere gleichgültig lässt? Wissenschaftler entdeckten etwas Interessantes. Musik, die von künstlicher Intelligenz erstellt wurde, löst bei Menschen intensivere emotionale Reaktionen aus als von Menschen komponierte Stücke.

GPT-5 wurde in 24 Stunden gehackt

2 unabhängige Forschungsunternehmen NeuralTrust und SPLX entdeckten nur 24 Stunden nach der Veröffentlichung von GPT-5 kritische Schwachstellen im Sicherheitssystem des neuen Modells. Zum Vergleich: Grok-4 wurde in 2 Tagen gehackt, was den Fall mit GPT-5 noch beunruhigender macht.

Cloudflare blockierte Perplexity für 6 Millionen versteckte Anfragen pro Tag

Cloudflare versetzte Perplexity AI einen vernichtenden Schlag und blockierte dem Such-Startup den Zugang zu Tausenden von Websites. Der Grund? Beispielloses verstecktes Scannen von Web-Ressourcen entgegen expliziten Verboten der Eigentümer!

Drohungen und $1 Billion verbessern die Arbeit neuronaler Netzwerke nicht

Sie haben sicherlich diese "geheimen Tricks" zur Steuerung neuronaler Netzwerke gesehen. Wie Drohungen, Belohnungsversprechen, emotionale Manipulationen. Aber funktionieren sie wirklich? Forscher der University of Pennsylvania und der Wharton School führten ein großangelegtes Experiment mit 5 fortschrittlichen Modellen durch: Gemini 1.5 Flash, Gemini 2.0 Flash, GPT-4o, GPT-4o-mini und GPT o4-mini.