Post Thumbnail

OpenAI увольняет экспертов по безопасности и сокращает тесты до дней

Тревожные перемены в OpenAI. Там проводят увольнение инженеров, отвечающих за защиту от утечек, краж данных и других критически важных угроз.

И что интересно, OpenAI увольняет опытных специалистов и набирает новых сотрудников на их места. Официальное объяснение звучит размыто, цитирую — «компания выросла и теперь сталкивается с угрозами другого уровня».

Но это лишь верхушка айсберга в компании! Параллельно происходит беспрецедентное ускорение выпуска продуктов за счёт игнорирования собственных процедур тестирования безопасности. Если раньше проверка моделей занимала месяцы тщательного анализа, то сейчас сроки сжаты до нескольких дней.

Наиболее тревожный индикатор — изменение подхода к финальным версиям моделей. Конечные чекпоинты могут вообще не проходить проверку, а тестированию подвергаются только промежуточные версии. При этом почти все тесты автоматизированы. Что фактически означает отсутствие человеческого надзора над потенциально опасными аспектами искусственного интеллекта.

Напоминает старый анекдот. Сотрудник говорит начальнику: У нас дыра в безопасности. А начальник ему отвечает — Слава богу, хоть что-то у нас в безопасности.

Автор: AIvengo
5 лет я работаю с машинным обучением и искусственным интеллектом. И эта сфера не перестает меня удивлять, восхищать и интересовать.
Latest News
UBTech отправит роботов Walker S2 служить на границу Китая за $37 млн

Китайская компания UBTech выиграла контракт на $37 миллионов. И отправит человекоподобных роботов Walker S2 служить на границу Китая с Вьетнамом. South China Morning Post сообщает, что роботы будут взаимодействовать с туристами и персоналом, выполнять логистические операции, досматривать грузы и патрулировать местность. И что характерно — они умеют самостоятельно менять свою батарею.

Anthropic случайно раскрыла внутренний документ о "душе" Claude

Anthropic случайно раскрыла пользователю "душу" искусственного интеллекта. И это не метафора. Это вполне конкретный внутренний документ.

Дженсен Хуанг приказал сотрудникам Nvidia использовать ИИ везде

Дженсен Хуанг объявил внутри Nvidia тотальную мобилизацию под знаменем искусственного интеллекта. И это уже не рекомендация. Это требование.

ИИ-чатботы генерируют контент, усугубляющий расстройства питания

Совместное исследование Стэнфордского университета и Центра демократии и технологий показало тревожную картину. Чат-боты с искусственным интеллектом представляют серьёзный риск для людей с расстройствами пищевого поведения. Учёные предупреждают, что нейросети раздают вредные советы о диетах. Предлагают способы скрыть расстройство и генерируют "вдохновляющий контент для похудения", который усугубляет проблему.

OpenAGI выпустил модель Lux, которая обгоняет Google и OpenAI

Стартап OpenAGI выпустил модель Lux для управления компьютером и заявляет, что это прорыв. По бенчмаркам модель на целое поколение обгоняет аналоги от Google, OpenAI и Anthropic. Кроме того, она работает быстрее. Примерно 1 секунда на шаг вместо 3 секунд у конкурентов. И в 10 раз дешевле по стоимости обработки 1 токена.