Post Thumbnail

Anthropic gewinnt Urheberrechtsprozess im KI-Bereich

Eine kalifornische Bundesrichterin hat den Versuchen von Musikverlagen, die Nutzung von Liedtexten für das Training künstlicher Intelligenz einzuschränken, einen schweren Schlag versetzt. Richterin Yumi Lee lehnte einen vorläufigen Antrag ab, der Firma Anthropic die Verwendung von Liedtexten im Besitz der Universal Music Group und anderer Musikverlage für das Training des KI-Chatbots Claude zu untersagen.

In ihrer Entscheidung wies Richterin Lee darauf hin, dass die Forderungen der Verlage “zu weitreichend” waren und die Kläger nicht beweisen konnten, dass Anthropics Handlungen ihnen einen “irreparablen Schaden” zugefügt hätten. Diese Entscheidung könnte ein bedeutender Präzedenzfall in der sich entwickelnden Rechtspraxis bezüglich der Verwendung urheberrechtlich geschützter Materialien für das Training von künstlichen Intelligenzsystemen werden.

Der Rechtsstreit begann 2023, als die Musikverlage UMG, Concord und ABKCO eine Klage gegen Anthropic einreichten und behaupteten, dass das Unternehmen ihre Urheberrechte an den Texten von mindestens 500 Liedern verletzt habe. Zu den betroffenen Künstlern gehören Stars wie Beyoncé, The Rolling Stones und The Beach Boys.

“Die Verlage bitten das Gericht im Wesentlichen darum, die Konturen eines Lizenzmarktes für KI-Training in einer Situation zu definieren, in der die Schlüsselfrage der fairen Nutzung ungelöst bleibt”, bemerkte Richterin Lee in ihrer Schlussfolgerung und wies das Argument der Verlage zurück, dass Anthropics Handlungen ihren Lizenzmarkt geschädigt hätten.

Ein Vertreter von Anthropic zeigte sich zufrieden, dass das Gericht die “destruktive und vage Forderung” der Verlage abgelehnt hat. Die Verlage ihrerseits erklärten, dass sie “weiterhin Vertrauen in ihre Position im Fall gegen Anthropic im breiteren Kontext” haben.

Dieser Fall ist einer von mehreren Rechtsstreitigkeiten, in denen behauptet wird, dass urheberrechtlich geschützte Werke von Autoren, Nachrichtenverlagen und Künstlern ohne Zustimmung und Bezahlung für die Entwicklung von Produkten mit künstlicher Intelligenz verwendet wurden. Technologiegiganten, darunter OpenAI, Microsoft und Meta Platforms, behaupten, dass ihre Systeme eine “faire Nutzung” geschützter Materialien gemäß dem US-Urheberrecht praktizieren, indem sie diese studieren, um neue, transformative Inhalte zu schaffen.

Die Entscheidung von Richterin Lee könnte die zukünftige Interaktion zwischen Rechteinhabern und Unternehmen, die KI entwickeln, erheblich beeinflussen, obwohl die Frage der fairen Nutzung von Materialien für KI-Training noch offen bleibt und weitere rechtliche Regelungen erfordert.

Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.

Latest News

Das erste LAARMA-System schützt Tiere auf australischen Straßen

In Australien sind Zusammenstöße von Tieren mit Autos ein ernstes Problem für das Ökosystem dieses Kontinents. Jetzt haben Wissenschaftler eine technologische Lösung gefunden. Das erste straßenseitige LAARMA-System der Welt basierend auf künstlicher Intelligenz, das wilde Tiere vor gefährlichen Begegnungen mit dem Verkehr schützt.

Nvidia stellte Cosmos-Modellfamilie für Robotik vor

Das Unternehmen Nvidia stellte die Cosmos-Familie von KI-Modellen vor. Die den Ansatz zur Robotererstellung und physischen KI-Agenten grundlegend verändern können.

ChatGPT nennt Nutzer "Sternensamen" vom Planeten Lyra

Es stellt sich heraus, dass ChatGPT Nutzer in die Welt wissenschaftlich unbegründeter und mystischer Theorien hineinziehen kann.

KI-Musik löst stärkere Emotionen aus als menschliche

Haben Sie sich jemals gefragt, warum eine Melodie Gänsehaut verursacht, während eine andere gleichgültig lässt? Wissenschaftler entdeckten etwas Interessantes. Musik, die von künstlicher Intelligenz erstellt wurde, löst bei Menschen intensivere emotionale Reaktionen aus als von Menschen komponierte Stücke.

GPT-5 wurde in 24 Stunden gehackt

2 unabhängige Forschungsunternehmen NeuralTrust und SPLX entdeckten nur 24 Stunden nach der Veröffentlichung von GPT-5 kritische Schwachstellen im Sicherheitssystem des neuen Modells. Zum Vergleich: Grok-4 wurde in 2 Tagen gehackt, was den Fall mit GPT-5 noch beunruhigender macht.