Искусственный интеллект научился избегать страданий: Исследование Google DeepMind

Post Thumbnail

Исследователи из Google DeepMind и Лондонской школы экономики провели беспрецедентный эксперимент, изучающий способность искусственного интеллекта реагировать на «боль» и «удовольствие». В исследовании приняли участие девять крупнейших языковых моделей, включая ChatGPT и Gemini 1.5 Pro, которые продемонстрировали неожиданно «человеческое» поведение.

В рамках эксперимента ИИ-моделям предлагалась текстовая игра с выбором между двумя сценариями: получение высокого балла с риском «боли» или низкого балла с гарантированным «удовольствием». Результаты оказались поразительными: искусственный интеллект последовательно жертвовал высокими баллами, чтобы избежать «болезненных» последствий.

Особенно показательным стало поведение модели Gemini 1.5 Pro от Google, которая систематически выбирала стратегию избегания «боли», даже когда это приводило к потере потенциально высоких результатов. Более того, модели демонстрировали способность корректировать свое поведение в зависимости от интенсивности предлагаемых стимулов.

«Хотя результаты не доказывают наличие сознания у ИИ, они закладывают важную основу для будущих исследований», – отмечает Джонатан Бирч, профессор LSE и соавтор исследования. Методология эксперимента была вдохновлена аналогичными исследованиями поведения животных, в частности, реакциями раков-отшельников на неприятные раздражители.

В отличие от традиционных исследований, основанных на самоотчетах ИИ-систем, новый подход фокусируется на поведенческих реакциях без прямых вопросов о внутренних состояниях искусственного интеллекта. Это позволяет получить более объективную картину процесса принятия решений ИИ.

Исследование поднимает важные вопросы об этических и правовых аспектах развития искусственного интеллекта, особенно в контексте систем, демонстрирующих поведение, схожее с поведением живых существ. По мере эволюции ИИ такие наблюдения становятся критически важными для разработки этических принципов и переоценки роли искусственного интеллекта в обществе.

Почитать из последнего
OpenAI тайком строит армию роботов-гуманоидов
Пока все следят за очередной версией ChatGPT, OpenAI втихаря замутила кое-что поинтереснее. Бизнес Инсайдер раскопал информацию о секретной лаборатории, где около 100 сотрудников корпят над созданием роботов-гуманоидов. И знаете, что самое показательное? Об этом никто не писал на презентациях.
Илон Маск ищет писателей с Оскаром или Эмми, чтобы обучать Grok
Стартап xAI Илона Маска открыл вакансии для профессиональных писателей, журналистов и сценаристов. Чтобы они занялись обучением моделей ИИ. Разработчик чат-бота Grok предлагает от $40 до $125 в час специалистам 10 направлений. Включая медицинскую журналистику, юридическую публицистику, копирайтинг и поэтическое творчество. Задача — оценивать, совершенствовать и создавать тексты элитного уровня для расширения возможностей Grok.
Anthropic публично высмеяла ChatGPT за рекламу
Представьте: вы делитесь с ИИ чем-то личным, а он вдруг прерывается и советует купить кроссовки со скидкой. Абсурд? Компания Anthropic решила, что именно так выглядит будущее конкурента, и превратила это в оружие. И выпустила целый манифест, где пообещали никогда не добавлять рекламу в свой чат-бот Claude.
Беспилотный робомобиль Waymo сбил ребёнка у школы
Беспилотный автомобиль Waymo, принадлежащий Alphabet, сбил ребёнка возле начальной школы в Калифорнии. Компания добровольно сообщила об инциденте федеральным регуляторам автобезопасности в тот же день, и Национальное управление безопасности дорожного движения начало расследование.
Создатели ИИ-министра для борьбы с коррупцией украли 7 млн евро
Помните историю про ИИ-министра в Албании? Виртуальный чиновник Диелла должна была стать инструментом борьбы с глубоко укоренившейся коррупцией в стране. Звучало прогрессивно и технологично. Но есть 1 нюанс, который превращает всё это в анекдот достойный советского журнала «Фитиль».