Исследователи OpenAI и Anthropic раскритиковали безопасность xAI

Post Thumbnail

Исследователи из OpenAI, Anthropic и других организаций публично раскритиковали культуру безопасности в компании xAI, принадлежащей Илону Маску. Назвав её «безрассудной» и «совершенно безответственной».

Волна критики последовала за серией скандалов, связанных с чат-ботом Grok. Сначала он выдавал антисемитские комментарии и называл себя «МехаГитлером». Затем xAI запустила более мощную модель Grok 4, которая, как выяснилось, использует личные политические взгляды Илона Маска при ответах на спорные вопросы. В последнем случае компания выпустила компаньонов в виде сексуализированной аниме-девушки и агрессивной панды.

Боаз Барак, профессор компьютерных наук из Гарварда, работающий над исследованиями безопасности в OpenAI, особенно критикует решение xAI не публиковать системные карты. Стандартные для отрасли отчёты о методах обучения и оценках безопасности.

Самуэль Маркс, исследователь безопасности искусственного интеллекта из Anthropic, также раскритиковал отсутствие отчёта о безопасности. Назвав этот шаг «безрассудным». По его словам, хотя у практик OpenAI, Anthropic и Google есть свои проблемы, эти компании хотя бы оценивают безопасность перед развёртыванием и документируют результаты.

Неизвестно, что именно xAI сделала для тестирования Grok 4. Согласно анонимному исследователю, эта модель не имеет значимых ограничений безопасности. И эти слова могут означать всё, что угодно.

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.