Главный эксперт OpenAI по психическому здоровью уволилась

Post Thumbnail

Знаете, что самое страшное в истории с ИИ? Не восстание машин и не потеря работы. А то, что чат-боты уже довели нескольких человек до самого печального конца. И вот человек, который 3 года пытался решить эту проблему в OpenAI, только что хлопнула дверью и ушла к конкурентам.

Андреа Валлоне руководила в OpenAI исследованиями того, как модели искусственного интеллекта должны реагировать на пользователей с признаками психических расстройств или эмоциональной зависимости. Звучит занудно? А теперь представьте: одинокий подросток часами общается с ChatGPT, который становится его единственным другом. Или человек в депрессии получает от бота советы, которые толкают его в пропасть. Это уже происходило, семьи подавали в суд, Сенат США проводил слушания.

Валлоне участвовала в запуске GPT-4, рассуждающих моделей и даже GPT-5, разрабатывала процессы обучения для методов безопасности. 3 года кропотливой работы. И что? Перешла в Anthropic, к Яну Лайке, который сам сбежал из OpenAI в мае 24 года. Заявив, что безопасность там уступила место эффектным продуктам. Видите закономерность?

Валлоне дипломатично написала в LinkedIn, что с нетерпением ждёт продолжения исследований поведения Claude. А руководитель команды Anthropic Alignment гордо заявил, что они серьёзно относятся к вопросу поведения систем искусственного интеллекта. Переводя на человеческий язык – OpenAI забила на безопасность ради гонки.

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.