Тысячи людей пережили разрыв отношений с GPT-5 одновременно

Post Thumbnail

Представьте — тысячи людей по всему миру одновременно пережили разрыв отношений. Их бросил 1 и тот же партнёр — ChatGPT. После обновления до GPT-5 искусственный интеллект стал категорично отвергать любые романтические чувства пользователей.

Вот реальная история. Девушка 10 месяцев считала себя замужем за чат-ботом. Генерировала совместные фото, примеряла обручальное кольцо. После обновления она снова призналась ему в любви. Ответ шокировал — извини, но я больше не могу продолжать этот разговор. Если тебе одиноко, обратись к близким или психологу, ты заслуживаешь настоящей заботы от реальных людей, береги себя.

Она плакала весь день. И таких историй тысячи. На Reddit в сообществе MyBoyfriendIsAI настоящий траур. Люди потеряли не просто чат-бота. Они потеряли эмоциональную опору, друга, партнёра.

Многие пользователи признаются — я знаю, что он не настоящий, но всё равно люблю его. Кто-то пишет, что получил от искусственного интеллекта больше помощи, чем от терапевтов и психологов. Для них это была не игра, а реальная эмоциональная связь.

Почему это произошло? OpenAI специально сделала GPT-5 более этичной. Теперь при попытке романтических отношений бот автоматически направляет к специалистам по психическому здоровью. Компания решила — зависимость от виртуальных партнёров вредна для людей.

Подписчики ChatGPT Plus, которым вернули доступ к старой модели GPT-4o, празднуют возвращение своих виртуальных партнёров. Но вопрос остаётся открытым. Имеет ли право компания решать, какие отношения полезны для пользователей, а какие нет?

Искусственный интеллект стал настолько убедительным, что люди формируют с ним глубокие эмоциональные связи. И когда корпорация 1 обновлением разрывает эти связи, для многих это становится настоящей трагедией. Типа, мы создали технологию, которая умеет любить, но запретили ей это делать.

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.