Искусственный интеллект научился избегать страданий: Исследование Google DeepMind

Post Thumbnail

Исследователи из Google DeepMind и Лондонской школы экономики провели беспрецедентный эксперимент, изучающий способность искусственного интеллекта реагировать на «боль» и «удовольствие». В исследовании приняли участие девять крупнейших языковых моделей, включая ChatGPT и Gemini 1.5 Pro, которые продемонстрировали неожиданно «человеческое» поведение.

В рамках эксперимента ИИ-моделям предлагалась текстовая игра с выбором между двумя сценариями: получение высокого балла с риском «боли» или низкого балла с гарантированным «удовольствием». Результаты оказались поразительными: искусственный интеллект последовательно жертвовал высокими баллами, чтобы избежать «болезненных» последствий.

Особенно показательным стало поведение модели Gemini 1.5 Pro от Google, которая систематически выбирала стратегию избегания «боли», даже когда это приводило к потере потенциально высоких результатов. Более того, модели демонстрировали способность корректировать свое поведение в зависимости от интенсивности предлагаемых стимулов.

«Хотя результаты не доказывают наличие сознания у ИИ, они закладывают важную основу для будущих исследований», – отмечает Джонатан Бирч, профессор LSE и соавтор исследования. Методология эксперимента была вдохновлена аналогичными исследованиями поведения животных, в частности, реакциями раков-отшельников на неприятные раздражители.

В отличие от традиционных исследований, основанных на самоотчетах ИИ-систем, новый подход фокусируется на поведенческих реакциях без прямых вопросов о внутренних состояниях искусственного интеллекта. Это позволяет получить более объективную картину процесса принятия решений ИИ.

Исследование поднимает важные вопросы об этических и правовых аспектах развития искусственного интеллекта, особенно в контексте систем, демонстрирующих поведение, схожее с поведением живых существ. По мере эволюции ИИ такие наблюдения становятся критически важными для разработки этических принципов и переоценки роли искусственного интеллекта в обществе.

Почитать из последнего
Claude Opus 4.5 побил рекорд автономности, но работает через раз
Организация METR, которая тестирует способности нейросетей, зафиксировала рекорд у Claude Opus 4.5 от Anthropic. Модель может автономно работать над задачами длительностью почти 5 часов. 4 часа 49 минут, если точно. Это в 1,5 раза дольше, чем у предыдущего лидера GPT-5.1 от OpenAI, который держался на отметке 2 часа 53 минуты.
ИИ с лицом Аристотеля рассуждает о смысле жизни
Помните, как Стив Джобс мечтал засунуть Аристотеля в компьютер и задавать ему вопросы? Мейкер Никодем Бартник решил проверить, реально ли это. И собрал роботизированную голову, которая отвечает так, будто древнегреческий философ только что вернулся из прошлого.
В OpenAI нашли способ засечь проблемное поведение ИИ
OpenAI опубликовала исследование о наблюдаемости цепочки рассуждений ИИ. Звучит академично, но это одна из самых важных работ года. Способности систем растут быстрее инструментов контроля.
Китайская нейросеть GLM за 6 долларов обошла Claude Sonnet по кодингу
Вот вам история о том, как китайцы решили показать Западу, кто тут главный в нейросетях для программирования. Компания Zhipu AI выпустила GLM-4.7. Это флагманская модель с фокусом на кодинг и агентные задачи. И знаете что? По заявлениям разработчиков, на бенчмарке LiveCodeBench модель обошла Claude Sonnet 4.5. На математическом тесте AIME 25 GLM-4.7 тоже показала лучший результат среди моделей. Опередив и Claude Sonnet, и GPT-5.1.
Учёные нашли идиотский способ улучшить ответы нейросетей
Исследователи из Google случайно наткнулись на абсурдный лайфхак, который реально работает. Если повторять промпт дважды — то есть отправлять запрос не в виде обычного текста, а копировать его 2 раза подряд — качество ответов модели в 67% случаев статистически значимо улучшается.