OpenAI ищет человека, который будет предотвращать апокалипсис от ИИ

Post Thumbnail

OpenAI открыла вакансию Head of Preparedness. Главная идея роли: понимать, где ИИ может пойти не туда. Предотвращать злоупотребления, усиливать защиту кибербезопасности и закладывать правила для систем, которые умеют самоулучшаться.

Звучит как объявление о найме пожарного на атомную электростанцию, где реактор уже начал плавиться. Это напряжённая и очень ответственная работа: мало примеров, много неизвестного. Но и высокий уровень влияния на решения. Меня удивляет, что не взяли человека изнутри, кто хорошо знает специфику т уже в теме.

По сути, задача проста по формулировке и сложна на практике: как развивать мощный искусственный интеллект и не дать ему причинить вред. Сэм Альтман написал, цитирую: «Если вы хотите помочь миру выяснить, как дать защитникам кибербезопасности передовые возможности и даже получить уверенность в безопасности систем, которые могут самоулучшаться — подавайте заявку».

Описание вакансии гласит, что роль ответственна за выполнение так называемой preparedness framework. Структуры, объясняющей подход OpenAI к отслеживанию и подготовке к передовым возможностям, которые создают новые риски серьёзного вреда.

Получается, OpenAI стремительно строит всё более мощные модели, которые могут самоулучшаться и обладают передовыми возможностями. И одновременно ищет человека, который будет придумывать, как от этих моделей защититься.

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.