OpenAI увольняет экспертов по безопасности и сокращает тесты до дней
Тревожные перемены в OpenAI. Там проводят увольнение инженеров, отвечающих за защиту от утечек, краж данных и других критически важных угроз.
И что интересно, OpenAI увольняет опытных специалистов и набирает новых сотрудников на их места. Официальное объяснение звучит размыто, цитирую — «компания выросла и теперь сталкивается с угрозами другого уровня».
Но это лишь верхушка айсберга в компании! Параллельно происходит беспрецедентное ускорение выпуска продуктов за счёт игнорирования собственных процедур тестирования безопасности. Если раньше проверка моделей занимала месяцы тщательного анализа, то сейчас сроки сжаты до нескольких дней.
Наиболее тревожный индикатор — изменение подхода к финальным версиям моделей. Конечные чекпоинты могут вообще не проходить проверку, а тестированию подвергаются только промежуточные версии. При этом почти все тесты автоматизированы. Что фактически означает отсутствие человеческого надзора над потенциально опасными аспектами искусственного интеллекта.
Напоминает старый анекдот. Сотрудник говорит начальнику: У нас дыра в безопасности. А начальник ему отвечает — Слава богу, хоть что-то у нас в безопасности.
AIvengo >
Новости ИИ >
OpenAI увольняет экспертов по безопасности и сокращает тесты до дней
Почитать из последнего
Запущена "фабрика по кастомизации роботьих душ"
Знаете, какой минус в современных роботах? Они все одинаковые. 1 и тот же механический голос, 1 и те же заученные фразы, никакой индивидуальности. Компания AgiBot решила, что с этим пора кончать. И запустила платформу LinkSoul, которую сами разработчики называют "фабрикой по кастомизации роботьих душ".
ИИ научился видеть стресс на рентгене
Знаете, что самое паршивое в хроническом стресе? Его не видно. Ты можешь годами жечь себя на работе, улыбаться всем и делать вид, что всё под контролем. А внутри организм тихо разваливается.
Google дал 3 года на появление AGI
Сооснователь и главный AGI-сайентист Google DeepMind Шейн Легг выдал заявление, от которого у многих поплыли глаза. По его оценке, вероятность появления AGI к 28 году составляет 50%. Правда, он сразу оговаривается: речь не о "божественном сверхразуме", а о "минимальном AGI. Агенте, способном выполнять когнитивные задачи, типичные для человека.
Проверили, как нейросети заменяют людей - и результат печальный
Scale AI и Center for AI Safety опубликовали результаты бенчмарка Remote Labor Index, который оценивает способность нейросетей выполнять реальную работу фрилансеров. И знаете что? Даже лучшие модели справились с заданиями на человеческом уровне лишь в 2,5% случаев.