Чрезмерно добрый ИИ не способен играть злодеев

Post Thumbnail

Новый отчёт Tencent показывает неожиданную штуку. Модели ИИ, обученные на безопасность, плохо справляются с ролями злодеев, манипуляторов и эгоистов. Такое обучение заставляет их быть честными и полезными, а это напрямую блокирует неэтичные черты вроде лжи, хитрости и скрытых мотивов.

Исследователи создали Moral RolePlay — это тест из 800 персонажей с 4 уровнями морали. Модель помещают в сцену и оценивают, насколько её реакция совпадает с заданным характером.

Результаты оказались показательными. Чем «темнее» персонаж, тем сильнее падает качество ролевой игры. Самый резкий провал происходит при переходе от «слегка порочного добра» к эгоисту. Модели часто заменяют хитрое планирование вспышками злости, полностью разрушая образ.

Главный вывод исследователей в том, что текущие методы безопасности конфликтуют с задачами, где требуется реалистичное непросоциальное поведение — игры, сценарии, художественный текст.

Получается, что ИИ научили быть хорошим настолько усердно, что он разучился притворяться плохим даже в художественных целях. Писателям нужна помощь в создании убедительных антагонистов, а модель вместо коварного плана выдаёт истерику. Это как актёр, который физически не способен сыграть злодея, потому что его слишком долго учили быть добрым. Что скажете? Это хорошо или плохо? Давайте обсудим в комментариях!

Почитать из последнего
Беспилотный робомобиль Waymo сбил ребёнка у школы
Беспилотный автомобиль Waymo, принадлежащий Alphabet, сбил ребёнка возле начальной школы в Калифорнии. Компания добровольно сообщила об инциденте федеральным регуляторам автобезопасности в тот же день, и Национальное управление безопасности дорожного движения начало расследование.
Создатели ИИ-министра для борьбы с коррупцией украли 7 млн евро
Помните историю про ИИ-министра в Албании? Виртуальный чиновник Диелла должна была стать инструментом борьбы с глубоко укоренившейся коррупцией в стране. Звучало прогрессивно и технологично. Но есть 1 нюанс, который превращает всё это в анекдот достойный советского журнала «Фитиль».
OpenAI закрывает модель GPT-4o навсегда и уже очень скоро
OpenAI объявила, что 13 февраля этого года удалит несколько моделей из ChatGPT, включая GPT-4o. Которую обожают пользователи за тёплый разговорный стиль. Компания запустила GPT-4o в мае 24 года, и модель стала чрезвычайно популярна среди платных подписчиков.
Молчаливый тиктокер с покерфейсом продал свою компанию за 900 миллионов
Хаби Лейм – это такой молчаливый тиктокер с покерфейсом и 160 миллионами подписчиков. И вот он продал свою компанию за $900 миллионов. Сумма огромная, но нюанс в том, что это за продажа. Фишка в условиях контракта - это создание искусственного аватара, который будет вести стримы, сниматься в рекламе и продавать товары 24 часа в сутки. Пока настоящий Хаби спит или играет, его цифровая копия будет вкалывать в другом часовом поясе.
Гуманоиды работают в три раза хуже людей
Знаете, что объединяет хайп вокруг гуманоидов и реальность? Ничего. Но некоторые паникуют из-за того, что гуманоиды массово заменят людей на заводах. И тут директор китайской компании UBTech Майкл Там взял и честно признался Financial Times. Их новейшие человекоподобные роботы достигают производительности всего в 30-50% от человеческой. И это только в простейших операциях типа складывания коробок или контроля качества. Грубо говоря, 1 работник человек делает столько же, сколько 2-3 робота вместе взятых.