OpenAI ищет человека, который будет предотвращать апокалипсис от ИИ
OpenAI открыла вакансию Head of Preparedness. Главная идея роли: понимать, где ИИ может пойти не туда. Предотвращать злоупотребления, усиливать защиту кибербезопасности и закладывать правила для систем, которые умеют самоулучшаться.
Звучит как объявление о найме пожарного на атомную электростанцию, где реактор уже начал плавиться. Это напряжённая и очень ответственная работа: мало примеров, много неизвестного. Но и высокий уровень влияния на решения. Меня удивляет, что не взяли человека изнутри, кто хорошо знает специфику т уже в теме.
По сути, задача проста по формулировке и сложна на практике: как развивать мощный искусственный интеллект и не дать ему причинить вред. Сэм Альтман написал, цитирую: «Если вы хотите помочь миру выяснить, как дать защитникам кибербезопасности передовые возможности и даже получить уверенность в безопасности систем, которые могут самоулучшаться — подавайте заявку».
Описание вакансии гласит, что роль ответственна за выполнение так называемой preparedness framework. Структуры, объясняющей подход OpenAI к отслеживанию и подготовке к передовым возможностям, которые создают новые риски серьёзного вреда.
Получается, OpenAI стремительно строит всё более мощные модели, которые могут самоулучшаться и обладают передовыми возможностями. И одновременно ищет человека, который будет придумывать, как от этих моделей защититься.