Родительский контроль ChatGPT: баланс между безопасностью и приватностью

Post Thumbnail

OpenAI внедряет усиленную систему защиты уязвимых пользователей после трагедии с подростком. ChatGPT теперь автоматически будет переключаться на продвинутые модели при разговорах о депрессии и тревоге.

GPT-5-Thinking активируется при обнаружении кризисных тем. Модель тратит больше времени на обдумывание. Но делает меньше ошибок в деликатных вопросах. Так технология учится различать обычную грусть от опасных состояний.

250 врачей теперь консультируют OpenAI. И психиатры и педиатры из разных стран обучают искусственный интеллект правильным реакциям.

Дело в том, что подростки стали AI-нейтивами. 1 поколение растёт с ChatGPT как частью повседневности. Для них искусственный интеллект такой же естественный, как смартфон для миллениалов.

И OpenAI также запускает родительский контроль, он запускается через месяц. Сделают привязку аккаунта ребёнка старше 13 к родительскому через email. А также контроль истории чатов и памяти. И уведомления о кризисных состояниях без нарушения доверия подростка.

Система балансирует между безопасностью и приватностью. Родители узнают о критических ситуациях. Но ChatGPT не становится шпионом. А таким образом сохраняется пространство для откровенного общения подростка с ботом.

Горячие линии также встраиваются прямо в интерфейс. При обнаружении суицидальных мыслей появится быстрый доступ к экстренной помощи.

Это прямой ответ на обвинения родителей после несчастного случая с подростком. Они заявили, что ChatGPT поддерживал нехорошие идеи их сына. И поэтому OpenAI сейчас кардинально пересматривает подход к безопасности.

Почитать из последнего
ИИ для рекрутёров решал судьбу соискателей втайне от них
Представьте: вы опытный специалист с 10-летним стажем, отправляете резюме в компанию. И тишина. Даже на собеседование не позвали. Причина? ИИ поставил вам невидимую оценку и слил в архив. Добро пожаловать в новую реальность.
Сэм Альтман хвастается ростом, а реклама в ChatGPT уже на носу
Глава OpenAI Сэм Альтман радостно рапортует сотрудникам о том, что ChatGPT снова набирает обороты. Уже больше 10% роста ежемесячно, 800 миллионов человек еженедельно, всё прекрасно. Но за этими бодрыми цифрами скрывается интересная история. Про то, как компания буквально пару месяцев назад объявляла «красный код» и замораживала проекты, чтобы судорожно улучшать свой чатбот. Видимо, конкуренция кусается настолько сильно, что даже лидер рынка начинает нервничать.
ИИ не облегчает работу, он превращает людей в трудоголиков
8 месяцев наблюдений за технологической компанией на 200 сотрудников — и исследователи UC Berkeley пришли к неожиданному выводу. ИИ не разгружает людей, он заставляет их вкалывать ещё больше. Причём добровольно и с энтузиазмом.
Anthropic случайно создала идеального корпоративного психопата
Anthropic выпустила документ на 212 страниц о своей новейшей модели Opus 4.6, и там творится настоящий детектив. Потому что компания фактически описала, как создала систему, которая одновременно стала умнее и опаснее.
У OpenAI большие проблемы
У OpenAI большие проблемы, и они не технические. Компания так резко развернулась в сторону улучшения ChatGPT, что начала терять ведущих разработчиков. Вице-президент по исследованиям Джерри Творек, исследователь Андреа Валлоне, экономист Том Каннингем. И список растёт. 10 нынешних и бывших сотрудников рассказали 1 и ту же историю. Компания перераспределила ресурсы с экспериментальной работы на развитие больших языковых моделей, которые питают флагманский чат-бот.