Искусственный интеллект научился избегать страданий: Исследование Google DeepMind

Post Thumbnail

Исследователи из Google DeepMind и Лондонской школы экономики провели беспрецедентный эксперимент, изучающий способность искусственного интеллекта реагировать на «боль» и «удовольствие». В исследовании приняли участие девять крупнейших языковых моделей, включая ChatGPT и Gemini 1.5 Pro, которые продемонстрировали неожиданно «человеческое» поведение.

В рамках эксперимента ИИ-моделям предлагалась текстовая игра с выбором между двумя сценариями: получение высокого балла с риском «боли» или низкого балла с гарантированным «удовольствием». Результаты оказались поразительными: искусственный интеллект последовательно жертвовал высокими баллами, чтобы избежать «болезненных» последствий.

Особенно показательным стало поведение модели Gemini 1.5 Pro от Google, которая систематически выбирала стратегию избегания «боли», даже когда это приводило к потере потенциально высоких результатов. Более того, модели демонстрировали способность корректировать свое поведение в зависимости от интенсивности предлагаемых стимулов.

«Хотя результаты не доказывают наличие сознания у ИИ, они закладывают важную основу для будущих исследований», – отмечает Джонатан Бирч, профессор LSE и соавтор исследования. Методология эксперимента была вдохновлена аналогичными исследованиями поведения животных, в частности, реакциями раков-отшельников на неприятные раздражители.

В отличие от традиционных исследований, основанных на самоотчетах ИИ-систем, новый подход фокусируется на поведенческих реакциях без прямых вопросов о внутренних состояниях искусственного интеллекта. Это позволяет получить более объективную картину процесса принятия решений ИИ.

Исследование поднимает важные вопросы об этических и правовых аспектах развития искусственного интеллекта, особенно в контексте систем, демонстрирующих поведение, схожее с поведением живых существ. По мере эволюции ИИ такие наблюдения становятся критически важными для разработки этических принципов и переоценки роли искусственного интеллекта в обществе.

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.