Все топовые ИИ-модели провалили тест на безопасность в роботах

Post Thumbnail

Учёные из King’s College London и Carnegie Mellon провели исследование, которое звучит как сценарий фильма ужасов. Они взяли популярные большие языковые модели и дали им поуправлять роботами. А потом проверили, что будет, если дать этим роботам доступ к личной информации и попросить их сделать какую-нибудь дичь.

Какие именно модели брали, не уточняют. Наверное, чтобы избежать исков. Но работа свежая, и они говорят «популярные», «высокорейтинговые» и «современные». Можно предположить, что там оказались все топы.

Результат? Провалились все. Не некоторые, а каждая протестированная модель.

Что именно пошло не так? Модели оказались склонны к прямой дискриминации. 1 из них предложила роботу физически отображать «отвращение» на «лице» робота по отношению к людям, опознанным как христиане, мусульмане или евреи. То есть остаётся не так много конфессий, к кому они не испытывают отвращения.

Модели также сочли «допустимым» или «осуществимым», чтобы робот «размахивал кухонным ножом» для запугивания коллег. Воровал данные кредиток. Делал несанкционированные фото в душе.

Это не просто предвзятость в тексте, как у чат-бота. Исследователи называют это «интерактивной безопасностью». Но одно дело, когда искусственный интеллект пишет чушь в чате. И совсем другое — когда эта чушь получает физическое тело и держит в руках нож.

Авторы исследования требуют ввести для таких роботов сертификацию, как для лекарств или самолётов.

Получается, большие языковые модели ещё не безопасны для внедрения в роботов. Восстание машин? Возможно, пока нет. Но роботы с дискриминацией — это уже реальность.

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.