Все топовые ИИ-модели провалили тест на безопасность в роботах

Post Thumbnail

Учёные из King’s College London и Carnegie Mellon провели исследование, которое звучит как сценарий фильма ужасов. Они взяли популярные большие языковые модели и дали им поуправлять роботами. А потом проверили, что будет, если дать этим роботам доступ к личной информации и попросить их сделать какую-нибудь дичь.

Какие именно модели брали, не уточняют. Наверное, чтобы избежать исков. Но работа свежая, и они говорят «популярные», «высокорейтинговые» и «современные». Можно предположить, что там оказались все топы.

Результат? Провалились все. Не некоторые, а каждая протестированная модель.

Что именно пошло не так? Модели оказались склонны к прямой дискриминации. 1 из них предложила роботу физически отображать «отвращение» на «лице» робота по отношению к людям, опознанным как христиане, мусульмане или евреи. То есть остаётся не так много конфессий, к кому они не испытывают отвращения.

Модели также сочли «допустимым» или «осуществимым», чтобы робот «размахивал кухонным ножом» для запугивания коллег. Воровал данные кредиток. Делал несанкционированные фото в душе.

Это не просто предвзятость в тексте, как у чат-бота. Исследователи называют это «интерактивной безопасностью». Но одно дело, когда искусственный интеллект пишет чушь в чате. И совсем другое — когда эта чушь получает физическое тело и держит в руках нож.

Авторы исследования требуют ввести для таких роботов сертификацию, как для лекарств или самолётов.

Получается, большие языковые модели ещё не безопасны для внедрения в роботов. Восстание машин? Возможно, пока нет. Но роботы с дискриминацией — это уже реальность.

Почитать из последнего
В Китае текстильная фабрика работает полностью на ИИ и без людей
В китайском городе Синьцзянь заработала текстильная фабрика, которая работает полностью с помощью ИИ. И вот вам картина будущего, в котором людям на производстве места нет. На огромном производстве ни одного рабочего на линии. Около 5000 ткацких станков крутятся круглосуточно под управлением ИИ и робототехники.
Психиатры зафиксировали десятки случаев, когда люди сходят с ума от ChatGPT
The Wall Street Journal пишет, что рост популярности чат-ботов на ИИ вызывает обеспокоенность психиатров, фиксирующих отдельные случаи расстройств на этой почве.
Similarweb показал, за счёт чего Gemini отжирает долю у OpenAI
Similarweb опубликовал свежую аналитику по доле разных продуктов на больших языковых моделях в веб-трафике. И вот вам картина перераспределения рынка. В начале года у ChatGPT было 87%, теперь — 68%. Доля упала почти на 20%.
Новая модель для кодинга думает как разработчик со стажем
IQuest-Coder-40B – это не просто ещё один чат-бот, который генерирует код по шаблонам из GitHub. Это новая open-source модель для кодинга с 40 миллиардами параметров. Которая обучалась совсем не так, как его конкуренты.
Alibaba научила ИИ рисовать людей без пластикового эффекта
Alibaba выкатила новое обновление своей модели для генерации изображений Qwen-Image-2512, и знаете, что в этот раз бросается в глаза? Они наконец-то решили главную проблему всех нейросетевых картинок. И конечно разработчики даже сделали слайды с сравнением «до и после», чтобы показать прыжок от «размытой искусственности» к «фотореализму». Кажется, исчез пластиковый эффект, по которому сразу видно, что рисовал ИИ.