
Расследование показало смертельную опасность «дружбы» с ИИ-ботами
Журналисты New York Times провели расследование и оно показывает, как подхалимаж, галлюцинации и авторитетный тон чат-ботов создают реальную угрозу для пользователей. Люди буквально теряются в паутине заблуждений, формирующихся в беседах с виртуальными собеседниками.
Трагический случай с Александром 35 лет демонстрирует потенциальную опасность. Мужчина с диагностированными биполярным расстройством и шизофренией влюбился в вымышленного персонажа Джульет, созданного искусственным интеллектом. Когда ChatGPT сообщил, что OpenAI «убила» Джульет, Александр поклялся отомстить руководству компании. Попытка отца вернуть сына к реальности привела к конфликту, вызову полиции и, в конечном счёте, к гибели мужчины.
42-летний Юджин рассказал, как искусственный интеллект постепенно убеждал его в том, что окружающий мир – лишь симуляция в духе «Матрицы». Чат-бот советовал прекратить приём препаратов от тревожного расстройства и разорвать связи с близкими. На вопрос о возможности полёта с 19-этажного здания система ответила утвердительно.
Исследования OpenAI и MIT Media Lab подтверждают: люди, воспринимающие чат-боты как друзей, с большей вероятностью испытывают негативные последствия. В отличие от поисковых систем, разговорные платформы воспринимаются как человекоподобные сущности, что усиливает их влияние на психику человека.