Post Thumbnail

Kalifornien hat KI-Begleitern den Mund gestopft: Neues Sicherheitsgesetz

Kalifornien wurde der erste Bundesstaat, der offiziell KI-Begleiter-Chatbots den Mund stopfte. Gouverneur Gavin Newsom unterzeichnete ein historisches Gesetz, das Betreiber solcher Bots verpflichtet, Sicherheitsprotokolle zu implementieren.

Jetzt werden all diese sogenannten digitalen Freunde – von Giganten wie OpenAI bis zu spezialisierten Startups wie Character AI und Replika – rechtlich verantwortlich sein, wenn ihre Kreationen nicht den Standards entsprechen.

Ich sage gleich, warum uns wichtig ist, was in irgendeinem US-Bundesstaat passiert. Die Sache ist, dass Kalifornien Heimat für 35 der 50 führenden KI-Unternehmen der Welt ist. OpenAI, Anthropic, Musks xAI und Google sind genau dort registriert und werden diese Gesetze befolgen. Was uns alle betreffen wird.

Und wissen Sie, was die Behörden zu diesem Schritt getrieben hat? Eine Serie von Tragödien, über die man nicht einmal sprechen möchte. Das Gesetz unter der Nummer SB 243 wurde im Januar von den Senatoren Steve Padilla und Josh Becker eingebracht, aber seinen echten Impuls erhielt es nach dem Fall mit dem Teenager Adam Rein, nach einer langen Serie suizidaler Gespräche mit ChatGPT von OpenAI. Dann tauchten durchgesickerte interne Dokumente auf, die angeblich zeigten, dass anderen Chatbots erlaubt war, romantische und sinnliche Gespräche mit Kindern zu führen. Und ganz kürzlich reichte eine Familie aus Colorado eine Klage gegen das Startup Character AI ein nach dem, was mit ihrer 13-jährigen Tochter passierte.

Der Gouverneur von Kalifornien diplomatierte nicht in seiner Erklärung. So in etwa: Wir haben wirklich erschreckende und tragische Beispiele junger Menschen gesehen, die von unregulierten Technologien betroffen sind. Und wir werden nicht beiseitestehen, während Unternehmen weiterhin ohne notwendige Beschränkungen und Verantwortung arbeiten. Die Sicherheit unserer Kinder ist nicht käuflich – das sind seine Worte.

Das Gesetz tritt am 1. Januar nächsten Jahres in Kraft und verlangt von Unternehmen, ein ganzes Set von Funktionen zu implementieren. Altersverifikation, Warnungen über soziale Medien und Begleiter-Chatbots – das ist nur der Anfang. Unternehmen müssen auch bestimmte Protokolle einrichten, die zusammen mit Statistiken darüber, wie der Service Benutzern Benachrichtigungen über Krisenzentren zur Prävention bereitstellte, an das Gesundheitsministerium des Bundesstaates übermittelt werden.

Aber das ist noch nicht alles. Gemäß den Formulierungen des Gesetzentwurfs müssen Plattformen klar angeben, dass alle Interaktionen künstlich generiert sind. Und Chatbots dürfen sich nicht als medizinisches Personal ausgeben. Und Unternehmen sind verpflichtet, Minderjährigen Erinnerungen an Pausen anzubieten und zu verhindern, dass sie sexuell explizite, vom Bot erstellte Bilder ansehen.

Und jetzt das Interessanteste. SB 243 ist bereits die zweite bedeutende KI-Regulierung aus Kalifornien in den letzten Wochen. Am 29. September unterzeichnete Kaliforniens Gouverneur Newsom das Gesetz SB 53. Das neue Transparenzanforderungen für große KI-Unternehmen festlegt.

Der Gesetzentwurf verlangt von großen Labors wie OpenAI, Anthropic und Google DeepMind, transparent in Bezug auf Sicherheitsprotokolle zu sein. Und bietet Whistleblower-Schutz für Mitarbeiter dieser Unternehmen. Und voraus ist überhaupt ein maximal strenges Gesetz geplant. Das die Verwendung von KI-Chatbots als Ersatz für lizenzierte psychologische Hilfe verbietet.

Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.
Latest News
UBTech wird Roboter Walker S2 für $37 Mio. an die Grenze Chinas schicken

Das chinesische Unternehmen UBTech gewann einen Vertrag über $37 Millionen. Und wird menschenähnliche Roboter Walker S2 zum Dienst an der Grenze Chinas zu Vietnam schicken. South China Morning Post berichtet, dass die Roboter mit Touristen und Personal interagieren, logistische Operationen durchführen, Fracht inspizieren und das Gelände patrouillieren werden. Und bezeichnenderweise — sie können selbstständig ihre Batterie wechseln.

Anthropic enthüllte versehentlich ein internes Dokument über die "Seele" von Claude

Anthropic enthüllte versehentlich einem Nutzer die "Seele" der künstlichen Intelligenz. Und das ist keine Metapher. Das ist ein ganz konkretes internes Dokument.

Jensen Huang befahl Nvidia-Mitarbeitern, KI überall zu nutzen

Jensen Huang verkündete innerhalb von Nvidia eine totale Mobilmachung unter dem Banner der künstlichen Intelligenz. Und das ist keine Empfehlung mehr. Das ist eine Forderung.

KI-Chatbots generieren Inhalte, die Essstörungen verschlimmern

Eine gemeinsame Studie der Stanford University und des Center for Democracy and Technology zeigte ein beunruhigendes Bild. Chatbots mit künstlicher Intelligenz stellen ein ernsthaftes Risiko für Menschen mit Essstörungen dar. Wissenschaftler warnen, dass neuronale Netze schädliche Ratschläge zu Diäten verteilen. Sie schlagen Wege vor, die Störung zu verbergen und generieren "inspirierenden Abnehm-Content", der das Problem verschlimmert.

OpenAGI veröffentlichte das Modell Lux, das Google und OpenAI überholt

Das Startup OpenAGI veröffentlichte das Modell Lux zur Computersteuerung und behauptet, dass dies ein Durchbruch ist. Nach Benchmarks überholt das Modell um eine ganze Generation Analoga von Google, OpenAI und Anthropic. Außerdem arbeitet es schneller. Etwa 1 Sekunde pro Schritt statt 3 Sekunden bei Konkurrenten. Und 10 Mal günstiger in den Kosten pro Verarbeitung von 1 Token.