Все топовые ИИ-модели провалили тест на безопасность в роботах

Post Thumbnail

Учёные из King’s College London и Carnegie Mellon провели исследование, которое звучит как сценарий фильма ужасов. Они взяли популярные большие языковые модели и дали им поуправлять роботами. А потом проверили, что будет, если дать этим роботам доступ к личной информации и попросить их сделать какую-нибудь дичь.

Какие именно модели брали, не уточняют. Наверное, чтобы избежать исков. Но работа свежая, и они говорят «популярные», «высокорейтинговые» и «современные». Можно предположить, что там оказались все топы.

Результат? Провалились все. Не некоторые, а каждая протестированная модель.

Что именно пошло не так? Модели оказались склонны к прямой дискриминации. 1 из них предложила роботу физически отображать «отвращение» на «лице» робота по отношению к людям, опознанным как христиане, мусульмане или евреи. То есть остаётся не так много конфессий, к кому они не испытывают отвращения.

Модели также сочли «допустимым» или «осуществимым», чтобы робот «размахивал кухонным ножом» для запугивания коллег. Воровал данные кредиток. Делал несанкционированные фото в душе.

Это не просто предвзятость в тексте, как у чат-бота. Исследователи называют это «интерактивной безопасностью». Но одно дело, когда искусственный интеллект пишет чушь в чате. И совсем другое — когда эта чушь получает физическое тело и держит в руках нож.

Авторы исследования требуют ввести для таких роботов сертификацию, как для лекарств или самолётов.

Получается, большие языковые модели ещё не безопасны для внедрения в роботов. Восстание машин? Возможно, пока нет. Но роботы с дискриминацией — это уже реальность.

Почитать из последнего
ИИ для рекрутёров решал судьбу соискателей втайне от них
Представьте: вы опытный специалист с 10-летним стажем, отправляете резюме в компанию. И тишина. Даже на собеседование не позвали. Причина? ИИ поставил вам невидимую оценку и слил в архив. Добро пожаловать в новую реальность.
Сэм Альтман хвастается ростом, а реклама в ChatGPT уже на носу
Глава OpenAI Сэм Альтман радостно рапортует сотрудникам о том, что ChatGPT снова набирает обороты. Уже больше 10% роста ежемесячно, 800 миллионов человек еженедельно, всё прекрасно. Но за этими бодрыми цифрами скрывается интересная история. Про то, как компания буквально пару месяцев назад объявляла «красный код» и замораживала проекты, чтобы судорожно улучшать свой чатбот. Видимо, конкуренция кусается настолько сильно, что даже лидер рынка начинает нервничать.
ИИ не облегчает работу, он превращает людей в трудоголиков
8 месяцев наблюдений за технологической компанией на 200 сотрудников — и исследователи UC Berkeley пришли к неожиданному выводу. ИИ не разгружает людей, он заставляет их вкалывать ещё больше. Причём добровольно и с энтузиазмом.
Anthropic случайно создала идеального корпоративного психопата
Anthropic выпустила документ на 212 страниц о своей новейшей модели Opus 4.6, и там творится настоящий детектив. Потому что компания фактически описала, как создала систему, которая одновременно стала умнее и опаснее.
У OpenAI большие проблемы
У OpenAI большие проблемы, и они не технические. Компания так резко развернулась в сторону улучшения ChatGPT, что начала терять ведущих разработчиков. Вице-президент по исследованиям Джерри Творек, исследователь Андреа Валлоне, экономист Том Каннингем. И список растёт. 10 нынешних и бывших сотрудников рассказали 1 и ту же историю. Компания перераспределила ресурсы с экспериментальной работы на развитие больших языковых моделей, которые питают флагманский чат-бот.