Post Thumbnail

Anthropic выиграла суд за авторские права в сфере ИИ

Федеральный судья Калифорнии нанесла серьезный удар по попыткам музыкальных издателей ограничить использование песенных текстов для обучения искусственного интеллекта. Судья Юми Ли отклонила предварительный запрос на блокировку использования компанией Anthropic текстов песен, принадлежащих Universal Music Group и другим музыкальным издательствам, для обучения ИИ-чатбота Claude.

В своем решении судья Ли указала, что требования издателей были «слишком широкими», а истцы не смогли доказать, что действия Anthropic нанесли им «непоправимый ущерб». Это решение может стать значимым прецедентом в развивающейся юридической практике относительно использования защищенных авторским правом материалов для обучения систем искусственного интеллекта.

Судебное разбирательство началось в 2023 году, когда музыкальные издательства UMG, Concord и ABKCO подали иск против Anthropic, утверждая, что компания нарушила их авторские права на тексты как минимум 500 песен. Среди затронутых артистов – такие звезды как Beyoncé, The Rolling Stones и The Beach Boys.

«Издатели фактически просят суд определить контуры лицензионного рынка для обучения ИИ в ситуации, когда ключевой вопрос о добросовестном использовании остается нерешенным», – отметила в своем заключении судья Ли, отвергая аргумент издателей о том, что действия Anthropic нанесли ущерб их лицензионному рынку.

Представитель Anthropic выразил удовлетворение тем, что суд отклонил «деструктивный и расплывчатый запрос» издателей. В свою очередь, издатели заявили, что «сохраняют уверенность в своей позиции по делу против Anthropic в более широком контексте».

Это дело является одним из нескольких судебных разбирательств, в которых утверждается, что защищенные авторским правом работы авторов, новостных изданий и художников были использованы без согласия и оплаты для разработки продуктов с искусственным интеллектом. Технологические гиганты, включая OpenAI, Microsoft и Meta Platforms, утверждают, что их системы осуществляют «добросовестное использование» защищенных материалов согласно законодательству США об авторском праве, изучая их для создания нового, трансформативного контента.

Решение судьи Ли может существенно повлиять на будущее взаимодействие между правообладателями и компаниями, разрабатывающими ИИ, хотя вопрос о добросовестном использовании материалов для обучения ИИ все еще остается открытым и требует дальнейшего правового урегулирования.

Автор: AIvengo
5 лет я работаю с машинным обучением и искусственным интеллектом. И эта сфера не перестает меня удивлять, восхищать и интересовать.

Latest News

Pudu Robotics выпустила CC1 Pro — робот убирает 8000 м² за цикл

Компания Pudu Robotics представила новое поколение автономных уборочных систем — CC1 Pro. Который поднимает стандарты чистоты в крупных коммерческих объектах на принципиально новый уровень.

Boston Dynamics выпустила Orbit 5.0 — ИИ сократил проверки на 70%

Вышло крутое обновление Orbit 5.0 для платформы управления роботами Spot от Boston Dynamics. Которое кардинально меняет подход к промышленной аналитике и мониторингу! Система теперь позволяет централизованно контролировать целые парки роботов на множестве объектов, предоставляя операторам детальную аналитику в реальном времени.

Абу-Даби потратит $2.5 млрд на город с ИИ-управлением к 2027 году

Представьте город, где искусственный интеллект заботится о каждом аспекте вашей жизни. Это не фантастика, а ближайшее будущее Абу-Даби! Компании BOLD Technologies и My Aion разрабатывают единую платформу Aion Sentia. Которая возьмёт под контроль все городские системы — от транспорта до здравоохранения и образования.

4 китайских инженера провезли 80 ТБ данных ИИ в рюкзаках в Малайзию

Невероятная технологическая одиссея разворачивается прямо сейчас! Китайские инженеры нашли поразительно аналоговый способ обойти цифровые ограничения. Представьте: 4 сотрудника китайского искусственного интеллект-стартапа летят из Пекина в Куала-Лумпур. И каждый несёт в рюкзаке по 15 жёстких дисков! В общей сложности — 80 терабайт данных для обучения нейросетей.

Экс-исследователь OpenAI: ChatGPT проявляет инстинкт самосохранения

Бывший ведущий исследователь OpenAI Стивен Адлер опубликовал независимое исследование, раскрывающее неожиданное поведение моделей ChatGPT в критических ситуациях. Согласно его экспериментам, в определенных сценариях искусственный интеллект проявляет явную тенденцию к самосохранению. Даже если это может противоречить безопасности пользователя.