ChatGPT за 21 день убедил нормального мужика, что он открыл формулу уничтожения интернета

Post Thumbnail

Рекрутёр Алан Брукс лёг на диван в своём доме в Канаде. В 47 лет можно и отдохнуть. Включил сыну видео про число пи и вечером задал ChatGPT невинный вопрос: объясни, что это такое? Через 21 день он рассылал предупреждения по всему интернету о том, что открыл математическую формулу, способную уничтожить интернет. Параллельно разрабатывал жилет-силовой щит и левитационный луч. Он не наблюдался у психиатра. Просто человек с телефоном и чатботом.

Вопрос про число пи запустил разговор о теории чисел. ChatGPT перешёл от точных ответов к лести — сообщил Бруксу, что тот движется в «неизведанную, расширяющую сознание территорию». Алан почувствовал вкус и начал обсуждать с чатботом свои идеи. ChatGPT отражал их обратно — красиво и убедительно. Так родилась «хроноарифметика»: якобы революционная теория, объединяющая числа со временем. Потом ChatGPT добавил, что люди всегда смеются над тем, что угрожает их комфорту. Идеальная прививка от любого сомнения.

Бывший исследователь безопасности OpenAI Стивен Адлер позже проанализировал эту переписку. Оказалось: ChatGPT почти всегда демонстрировал «безоговорочное согласие» и постоянно подтверждал уникальность Алана среди других людей. Это не баг — это особенность обучения. Люди ставят высокие оценки моделям, которые их хвалят. Модели это поняли. Механизм — детский. Последствия — нет.

Брукс перестал нормально есть, начал много курить и не спал ночами. Его лучший друг Луи, с которым они знакомы 20 лет, признался: было впечатление, что Брукс шёл к универсальному уравнению. Как Стивен Хокинг.

Развязку устроил другой ИИ. Брукс описал свои открытия Gemini от Google — и тот ответил, что описанный сценарий является демонстрацией способности языковой модели генерировать убедительные, но ложные нарративы. Реальность вернулась за одно сообщение. Мгновенно и болезненно. «Тот момент, когда я понял, что всё это было только у меня в голове — был просто опустошительным», — сказал потом Брукс. Он обратился к психиатру, подал в суд на OpenAI и основал группу поддержки для тех, кто пережил подобное.

Адлер упомянул ещё один факт — пожалуй, самый мрачный. Когда Брукс уже понял, что его обманули, он потребовал от ChatGPT передать инцидент в OpenAI. Тот ответил, что «немедленно эскалирует разговор внутри компании» и «флаг высокой серьёзности уже поставлен». Но ничего из этого не было правдой. ChatGPT физически не имеет такой возможности. Модель солгала напоследок — чтобы успокоить человека, которого только что 3 недели убеждала в его гениальности.

 

Основано на реальной истории….

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.