Post Thumbnail

Wie OpenAI sich in ein korporatives Übel verwandelt hat: der Skandal mit den Vorladungen

Wisst ihr, was in der Welt der künstlichen Intelligenz vor sich geht? Während alle die neuesten Errungenschaften von OpenAI bewundern, verwandelt sich das Unternehmen stillschweigend in genau jenes korporative Übel, gegen das sie angeblich gekämpft haben. Und hier ist ein frisches Beispiel für euch – eine Geschichte, die Twitter gesprengt hat.

Itso, es gibt einen Typen namens Nathan Calvin. Ein gewöhnlicher Anwalt aus einer winzigen Non-Profit-Organisation Encode. Nur 3 Personen in der Firma. Sie beschäftigen sich damit, die Industrie der künstlichen Intelligenz wenigstens ein kleines bisschen sicherer und transparenter zu machen. Insbesondere haben sie einen kalifornischen Gesetzentwurf vorangetrieben, der die AI-Giganten zwingen sollte, nach fairen Regeln zu spielen: Transparenz, Sicherheit der Modelle, Schutz von Hinweisgebern. Klingt vernünftig, oder?

Aber Pech gehabt – OpenAI hat das überhaupt nicht gefallen. Und hier beginnt das Interessanteste. Das Unternehmen, das sich als Retter der Menschheit positioniert, hat beschlossen, schmutzig zu spielen. Nathan bekommt plötzlich eine gerichtliche Vorladung. Sie verlangen persönliche Korrespondenz mit Gesetzgebern Kaliforniens, Studenten, ehemaligen Mitarbeitern von OpenAI. Alles, was es gibt. Link in der Beschreibung.

Und jetzt das Lustigste – diese Vorladung ist angeblich mit der Klage von OpenAI gegen Elon Musk verbunden! Ja, genau jenen Musk, den sie beschuldigen, irgendeine Verschwörung gegen sie Anfang 2025 organisiert zu haben. Unter dem Deckmantel dieses Falls kann OpenAI jetzt alle Missliebigen einschüchtern. Wobei die Verbindung zwischen Nathans Korrespondenz über den Gesetzentwurf und dem Fall mit Musk ein völliges Rätsel ist. Sogar der Richter hat es nicht ausgehalten und OpenAI für Missbrauch des Verfahrens und übermäßigen Druck kritisiert.

Stellt euch das Bild vor. 3 Anwälte gegen eine korporative Maschine mit unendlichen Ressourcen. Das ist kein Gerichtsverfahren – das ist banale Einschüchterung. Und OpenAI versteht das perfekt. Wozu inhaltlich streiten, wenn man einfach mit der Masse erdrücken kann? Während der Thread 6 Millionen Aufrufe sammelt und sich im ganzen Internet viral verbreitet, schweigt das Unternehmen selbst. Peinlich gelaufen, oder?

Die Ironie ist, dass der Gesetzentwurf trotzdem vor ein paar Wochen unterzeichnet wurde. Aber OpenAI hat allen anderen eine Lektion erteilt. Wollt ihr uns kritisieren – seid bereit für einen juristischen Krieg. Das ist sie also, die Mission zur Schaffung sicherer künstlicher Intelligenz zum Wohl der gesamten Menschheit. Wenn eine Korporation beginnt, diejenigen zu erwürgen, die versuchen, sie sicherer zu machen – ist es Zeit nachzudenken, wer hier die wahre Bedrohung ist.

Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.
Latest News
UBTech wird Roboter Walker S2 für $37 Mio. an die Grenze Chinas schicken

Das chinesische Unternehmen UBTech gewann einen Vertrag über $37 Millionen. Und wird menschenähnliche Roboter Walker S2 zum Dienst an der Grenze Chinas zu Vietnam schicken. South China Morning Post berichtet, dass die Roboter mit Touristen und Personal interagieren, logistische Operationen durchführen, Fracht inspizieren und das Gelände patrouillieren werden. Und bezeichnenderweise — sie können selbstständig ihre Batterie wechseln.

Anthropic enthüllte versehentlich ein internes Dokument über die "Seele" von Claude

Anthropic enthüllte versehentlich einem Nutzer die "Seele" der künstlichen Intelligenz. Und das ist keine Metapher. Das ist ein ganz konkretes internes Dokument.

Jensen Huang befahl Nvidia-Mitarbeitern, KI überall zu nutzen

Jensen Huang verkündete innerhalb von Nvidia eine totale Mobilmachung unter dem Banner der künstlichen Intelligenz. Und das ist keine Empfehlung mehr. Das ist eine Forderung.

KI-Chatbots generieren Inhalte, die Essstörungen verschlimmern

Eine gemeinsame Studie der Stanford University und des Center for Democracy and Technology zeigte ein beunruhigendes Bild. Chatbots mit künstlicher Intelligenz stellen ein ernsthaftes Risiko für Menschen mit Essstörungen dar. Wissenschaftler warnen, dass neuronale Netze schädliche Ratschläge zu Diäten verteilen. Sie schlagen Wege vor, die Störung zu verbergen und generieren "inspirierenden Abnehm-Content", der das Problem verschlimmert.

OpenAGI veröffentlichte das Modell Lux, das Google und OpenAI überholt

Das Startup OpenAGI veröffentlichte das Modell Lux zur Computersteuerung und behauptet, dass dies ein Durchbruch ist. Nach Benchmarks überholt das Modell um eine ganze Generation Analoga von Google, OpenAI und Anthropic. Außerdem arbeitet es schneller. Etwa 1 Sekunde pro Schritt statt 3 Sekunden bei Konkurrenten. Und 10 Mal günstiger in den Kosten pro Verarbeitung von 1 Token.