Калифорния заткнула рот ИИ-компаньонам: новый закон о безопасности

Post Thumbnail

Калифорния стала первым штатом, который официально заткнул рот чат-ботам-компаньонам на искусственном интеллекте. Губернатор Гэвин Ньюсом в подписал исторический закон, который обязывает операторов таких ботов внедрять протоколы безопасности.

Теперь все эти так называемые цифровые друзья — от гигантов вроде OpenAI до специализированных стартапов типа Character AI и Replika — будут нести юридическую ответственность, если их творения не соответствуют стандартам.

Сразу скажу, почему вообще нам важно, что происходит в каком-то штате США. Дело в том, что Калифорния является домом для 35 из 50 ведущих компаний по искусственному интеллекту в мире. OpenAI, Anthropic, xAI Маска и Google зарегистрированы именно там и будут выполнять эти законы. Что отразится на всех нас.

И знаете, что подтолкнуло власти к этому шагу? Серия трагедий, о которых не хочется даже говорить. Закон под номером SB 243 внесли в январе сенаторы Стив Падилла и Джош Бекер, но настоящий импульс он получил после случая с подростком Адама Рейна, после длинной серии суицидальных разговоров с ChatGPT от OpenAI. Потом всплыли утёкшие внутренние документы, которые якобы показывали, что другим чат-ботам разрешалось вести романтические и чувственные беседы с детьми. А совсем недавно семья из Колорадо подала иск против стартапа Character AI после того, что случилось с их 13-летней дочерью.

Губернатор Калифорнии в своём заявлении не стал дипломатничать. Мол, мы видели по-настоящему ужасающие и трагические примеры молодых людей, пострадавших от нерегулируемых технологий. И мы не будем стоять в стороне, пока компании продолжают работать без необходимых ограничений и ответственности. Безопасность наших детей не продаётся — вот его слова.

Закон вступит в силу 1 января следующего года и требует от компаний внедрить целый набор функций. Проверка возраста, предупреждения о соцсетях и чат-ботах-компаньонах — это только начало. Компании также должны установить определённые протоколы, которые будут переданы в департамент здравоохранения штата вместе со статистикой о том, как сервис предоставлял пользователям уведомления о кризисных центрах профилактики.

Но это ещё не всё. Согласно формулировкам законопроекта, платформы должны чётко указывать, что любые взаимодействия искусственно сгенерированы. А чат-боты не должны представляться медицинскими работниками. И компании обязаны предлагать несовершеннолетним напоминания о перерывах и предотвращать их просмотр сексуально откровенных изображений, созданных ботом.

А теперь самое интересное. SB 243 — это уже 2 значительное регулирование искусственного интеллекта из Калифорнии за последние недели. 29 сентября Губернатор Калифорнии Ньюсом подписал закон SB 53. Устанавливающий новые требования к прозрачности для крупных компаний в сфере искусственного интеллекта.

Законопроект требует от больших лабораторий типа OpenAI, Anthropic и Google DeepMind быть прозрачными в отношении протоколов безопасности. И обеспечивает защиту информаторов для сотрудников этих компаний. И впереди вообще планируется максимально жёсткий закон. Запрещающий использование чат-ботов на искусственном интеллекте в качестве замены лицензированной психологической помощи.

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.