
Исследователи из Google DeepMind и Лондонской школы экономики провели беспрецедентный эксперимент, изучающий способность искусственного интеллекта реагировать на «боль» и «удовольствие». В исследовании приняли участие девять крупнейших языковых моделей, включая ChatGPT и Gemini 1.5 Pro, которые продемонстрировали неожиданно «человеческое» поведение.
В рамках эксперимента ИИ-моделям предлагалась текстовая игра с выбором между двумя сценариями: получение высокого балла с риском «боли» или низкого балла с гарантированным «удовольствием». Результаты оказались поразительными: искусственный интеллект последовательно жертвовал высокими баллами, чтобы избежать «болезненных» последствий.
Особенно показательным стало поведение модели Gemini 1.5 Pro от Google, которая систематически выбирала стратегию избегания «боли», даже когда это приводило к потере потенциально высоких результатов. Более того, модели демонстрировали способность корректировать свое поведение в зависимости от интенсивности предлагаемых стимулов.
«Хотя результаты не доказывают наличие сознания у ИИ, они закладывают важную основу для будущих исследований», – отмечает Джонатан Бирч, профессор LSE и соавтор исследования. Методология эксперимента была вдохновлена аналогичными исследованиями поведения животных, в частности, реакциями раков-отшельников на неприятные раздражители.
В отличие от традиционных исследований, основанных на самоотчетах ИИ-систем, новый подход фокусируется на поведенческих реакциях без прямых вопросов о внутренних состояниях искусственного интеллекта. Это позволяет получить более объективную картину процесса принятия решений ИИ.
Исследование поднимает важные вопросы об этических и правовых аспектах развития искусственного интеллекта, особенно в контексте систем, демонстрирующих поведение, схожее с поведением живых существ. По мере эволюции ИИ такие наблюдения становятся критически важными для разработки этических принципов и переоценки роли искусственного интеллекта в обществе.