Post Thumbnail

Искусственный интеллект научился избегать страданий: Исследование Google DeepMind

Исследователи из Google DeepMind и Лондонской школы экономики провели беспрецедентный эксперимент, изучающий способность искусственного интеллекта реагировать на “боль” и “удовольствие”. В исследовании приняли участие девять крупнейших языковых моделей, включая ChatGPT и Gemini 1.5 Pro, которые продемонстрировали неожиданно “человеческое” поведение.

В рамках эксперимента ИИ-моделям предлагалась текстовая игра с выбором между двумя сценариями: получение высокого балла с риском “боли” или низкого балла с гарантированным “удовольствием”. Результаты оказались поразительными: искусственный интеллект последовательно жертвовал высокими баллами, чтобы избежать “болезненных” последствий.

Особенно показательным стало поведение модели Gemini 1.5 Pro от Google, которая систематически выбирала стратегию избегания “боли”, даже когда это приводило к потере потенциально высоких результатов. Более того, модели демонстрировали способность корректировать свое поведение в зависимости от интенсивности предлагаемых стимулов.

“Хотя результаты не доказывают наличие сознания у ИИ, они закладывают важную основу для будущих исследований”, – отмечает Джонатан Бирч, профессор LSE и соавтор исследования. Методология эксперимента была вдохновлена аналогичными исследованиями поведения животных, в частности, реакциями раков-отшельников на неприятные раздражители.

В отличие от традиционных исследований, основанных на самоотчетах ИИ-систем, новый подход фокусируется на поведенческих реакциях без прямых вопросов о внутренних состояниях искусственного интеллекта. Это позволяет получить более объективную картину процесса принятия решений ИИ.

Исследование поднимает важные вопросы об этических и правовых аспектах развития искусственного интеллекта, особенно в контексте систем, демонстрирующих поведение, схожее с поведением живых существ. По мере эволюции ИИ такие наблюдения становятся критически важными для разработки этических принципов и переоценки роли искусственного интеллекта в обществе.

Автор: AIvengo
5 лет я работаю с машинным обучением и искусственным интеллектом. И эта сфера не перестает меня удивлять, восхищать и интересовать.
Latest News
Отец обучения с подкреплением предрек конец эры больших языковых моделей

Ричард Саттон - это 1 из отцов обучения с подкреплением и лауреат премии Тьюринга. Так вот он заявил, что эпоха больших языковых моделей подходит к концу. Дальше, по его мнению, наступает эра опыта. И вот почему он так считает.

Искусственный интеллект выявляет СДВГ без опросников и врачей

Представьте, что можно диагностировать на СДВГ просто по тому, как ваш мозг обрабатывает мелькающие буквы на экране. Никаких опросников, никаких месяцев ожидания приёма у специалиста. Искусственный интеллект смотрит на ваши визуальные ритмы и выдаёт вердикт с точностью 92%. Звучит как фантастика? Но это уже реальность.

OpenAI опозорились дважды выдав старые решения за открытия GPT-5

OpenAI умудрились опозориться дважды на одних и тех же граблях. И 2 попытка вышла ещё позорнее первой.

Главный экономист МВФ сравнил бум ИИ с пузырём доткомов

Главный экономист МВФ Пьер-Оливье Гуринша заявил, что мир уже прошёл половину пути до лопнувшего пузыря искусственного интеллекта и нового финансового кризиса.

Исследователи взломали 12 систем защиты ИИ

Знаете, что только что выяснили исследователи из OpenAI, Anthropic, Google DeepMind и Гарварда? Они попытались сломать популярные системы безопасности искусственного интеллекта и почти везде нашли обход. Проверяли 12 распространённых подходов к защите. От умных формулировок системного промпта до внешних фильтров, которые должны ловить опасные запросы.