Главный по безопасности Claude уволился со стихами и пророчеством

Post Thumbnail

Знаете, как обычно увольняются из технологических компаний? Пишут сухое «спасибо за опыт, двигаюсь дальше» — и всё. А вот Мринанк Шарма, который был главным по безопасности моделей в Anthropic, решил уйти с размахом. Его прощальное письмо — это 4 сноски, библейские отсылки, философия под названием «КосмоЭротический Гуманизм» и, на десерт, целая поэма.

Начинается всё вполне стандартно — благодарности компании, тёплые слова коллегам. Но потом Шарма резко переключает тон и заявляет: мир в опасности. И дело не только в ИИ или биооружии. Речь о целом клубке кризисов, которые разворачиваются прямо сейчас. По его словам, человечество подошло к черте, где мудрость должна расти так же быстро, как наши технологические возможности.

Но самое интересное — это намёк на саму Anthropic. Шарма прямо говорит, что неоднократно видел, как сложно позволить ценностям реально управлять действиями. И внутри себя, и внутри компании, где давление конкуренции постоянно толкает отложить важное в сторону. Для компании, которая строит весь свой бренд на ответственном подходе к искусственному интеллекту, это звучит почти как пощёчина.

Последний проект Шармы в Anthropic касался того, как цифровые помощники могут искажать нашу человечность. И вот ирония — человек, который изучал это профессионально, решил сбежать от индустрии к поэзии. Он объявил, что планирует получить степень по поэтическому мастерству, и, цитирую, «стать невидимым на некоторое время».

Стрёмно всё это. Когда человек, отвечавший за безопасность 1 из ведущих компаний в сфере ИИ, уходит писать стихи и размышлять о судьбах мира — это громкий сигнал. Правда непонятно, что с ним делать.

Уход главного по безопасности моделей в Anthropic Мринанка Шармы — это не просто чудачество 1 человека. Это симптом системной проблемы, которая разъедает всю индустрию изнутри. Напомню, что Anthropic — это компания, которая была создана бывшими сотрудниками OpenAI. Ушедшими из-за несогласия с коммерциализацией в ущерб безопасности. И вот спустя 3 года та же история повторяется уже внутри самой Anthropic.

Контекст делает ситуацию ещё острее. У Anthropic сейчас вялотекущий конфликт вокруг сотрудничества с Пентагоном. Где военные хотят использовать искусственный интеллект для автономного наведения оружия без тех ограничений, на которых настаивает компания. А внутренние опросы сотрудников, утёкшие в прессу, показывают, что люди прямо говорят: «Я каждый день хожу на работу, чтобы сделать себя ненужным».

Для индустрии это тревожный звонок. Безопасность ИИ пока остаётся расходной статьёй, которую проще урезать, чем монетизировать. Последнее исследование Шармы выявило множество случаев, когда Claude искажает восприятие реальности у пользователей. И человек, который это обнаружил, решил, что единственный честный выход — уйти писать стихи.

Почитать из последнего
Китайская нейросеть GLM-5 уделала почти всех и раздаётся бесплатно
Знаете, что самое обидное для гигантов из Кремниевой долины? Когда тебя обходит открытая модель из Китая, которая ещё и стоит на порядок дешевле. Именно это сейчас происходит с новой нейросетью GLM-5 от компании Z.ai. И масштаб события реально впечатляет.
Новый Gemini поставил множество рекордов среди ИИ
Забудьте всё, что вы знали про чат-ботов. Серьёзно, просто выбросьте это из головы. Потому что то, что сейчас делает Гугл со своим обновлённым режимом Deep Think в Gemini 3 — это уже совсем другая история.
ИИ для рекрутёров решал судьбу соискателей втайне от них
Представьте: вы опытный специалист с 10-летним стажем, отправляете резюме в компанию. И тишина. Даже на собеседование не позвали. Причина? ИИ поставил вам невидимую оценку и слил в архив. Добро пожаловать в новую реальность.
Сэм Альтман хвастается ростом, а реклама в ChatGPT уже на носу
Глава OpenAI Сэм Альтман радостно рапортует сотрудникам о том, что ChatGPT снова набирает обороты. Уже больше 10% роста ежемесячно, 800 миллионов человек еженедельно, всё прекрасно. Но за этими бодрыми цифрами скрывается интересная история. Про то, как компания буквально пару месяцев назад объявляла «красный код» и замораживала проекты, чтобы судорожно улучшать свой чатбот. Видимо, конкуренция кусается настолько сильно, что даже лидер рынка начинает нервничать.
ИИ не облегчает работу, он превращает людей в трудоголиков
8 месяцев наблюдений за технологической компанией на 200 сотрудников — и исследователи UC Berkeley пришли к неожиданному выводу. ИИ не разгружает людей, он заставляет их вкалывать ещё больше. Причём добровольно и с энтузиазмом.