Kalifornien hat KI-Begleitern den Mund gestopft: Neues Sicherheitsgesetz
Kalifornien wurde der erste Bundesstaat, der offiziell KI-Begleiter-Chatbots den Mund stopfte. Gouverneur Gavin Newsom unterzeichnete ein historisches Gesetz, das Betreiber solcher Bots verpflichtet, Sicherheitsprotokolle zu implementieren.
Jetzt werden all diese sogenannten digitalen Freunde – von Giganten wie OpenAI bis zu spezialisierten Startups wie Character AI und Replika – rechtlich verantwortlich sein, wenn ihre Kreationen nicht den Standards entsprechen.
Ich sage gleich, warum uns wichtig ist, was in irgendeinem US-Bundesstaat passiert. Die Sache ist, dass Kalifornien Heimat für 35 der 50 führenden KI-Unternehmen der Welt ist. OpenAI, Anthropic, Musks xAI und Google sind genau dort registriert und werden diese Gesetze befolgen. Was uns alle betreffen wird.
Und wissen Sie, was die Behörden zu diesem Schritt getrieben hat? Eine Serie von Tragödien, über die man nicht einmal sprechen möchte. Das Gesetz unter der Nummer SB 243 wurde im Januar von den Senatoren Steve Padilla und Josh Becker eingebracht, aber seinen echten Impuls erhielt es nach dem Fall mit dem Teenager Adam Rein, nach einer langen Serie suizidaler Gespräche mit ChatGPT von OpenAI. Dann tauchten durchgesickerte interne Dokumente auf, die angeblich zeigten, dass anderen Chatbots erlaubt war, romantische und sinnliche Gespräche mit Kindern zu führen. Und ganz kürzlich reichte eine Familie aus Colorado eine Klage gegen das Startup Character AI ein nach dem, was mit ihrer 13-jährigen Tochter passierte.
Der Gouverneur von Kalifornien diplomatierte nicht in seiner Erklärung. So in etwa: Wir haben wirklich erschreckende und tragische Beispiele junger Menschen gesehen, die von unregulierten Technologien betroffen sind. Und wir werden nicht beiseitestehen, während Unternehmen weiterhin ohne notwendige Beschränkungen und Verantwortung arbeiten. Die Sicherheit unserer Kinder ist nicht käuflich – das sind seine Worte.
Das Gesetz tritt am 1. Januar nächsten Jahres in Kraft und verlangt von Unternehmen, ein ganzes Set von Funktionen zu implementieren. Altersverifikation, Warnungen über soziale Medien und Begleiter-Chatbots – das ist nur der Anfang. Unternehmen müssen auch bestimmte Protokolle einrichten, die zusammen mit Statistiken darüber, wie der Service Benutzern Benachrichtigungen über Krisenzentren zur Prävention bereitstellte, an das Gesundheitsministerium des Bundesstaates übermittelt werden.
Aber das ist noch nicht alles. Gemäß den Formulierungen des Gesetzentwurfs müssen Plattformen klar angeben, dass alle Interaktionen künstlich generiert sind. Und Chatbots dürfen sich nicht als medizinisches Personal ausgeben. Und Unternehmen sind verpflichtet, Minderjährigen Erinnerungen an Pausen anzubieten und zu verhindern, dass sie sexuell explizite, vom Bot erstellte Bilder ansehen.
Und jetzt das Interessanteste. SB 243 ist bereits die zweite bedeutende KI-Regulierung aus Kalifornien in den letzten Wochen. Am 29. September unterzeichnete Kaliforniens Gouverneur Newsom das Gesetz SB 53. Das neue Transparenzanforderungen für große KI-Unternehmen festlegt.
Der Gesetzentwurf verlangt von großen Labors wie OpenAI, Anthropic und Google DeepMind, transparent in Bezug auf Sicherheitsprotokolle zu sein. Und bietet Whistleblower-Schutz für Mitarbeiter dieser Unternehmen. Und voraus ist überhaupt ein maximal strenges Gesetz geplant. Das die Verwendung von KI-Chatbots als Ersatz für lizenzierte psychologische Hilfe verbietet.