Гендиректор Scale AI и идея «выиграть ИИ-войну с Китаем»

Post Thumbnail

Выступление генерального директора Scale AI Александра Ванга на открытии Web Summit Qatar встретило неожиданно холодный прием со стороны международной аудитории, не разделившей его милитаристский взгляд на развитие искусственного интеллекта.

В прошлом месяце Ванг разместил полностраничное объявление в The Washington Post с обращением к президенту Трампу, в котором утверждал, что «Америка должна выиграть войну ИИ». Однако когда интервьюер Феликс Салмон из Axios провел опрос среди присутствующих на саммите, всего две руки поднялись в поддержку этого мнения. При этом «подавляющее большинство» аудитории выразило несогласие.

Ванг попытался обосновать свою позицию: «ИИ фундаментально изменит природу национальной безопасности». Он упомянул, что вырос в Лос-Аламосе, штат Нью-Мексико, «месте рождения атомной бомбы», и что оба его родителя были физиками, работавшими в Национальной лаборатории.

CEO Scale AI охарактеризовал ситуацию как гонку между США и Китаем, выразив опасение, что ИИ позволит Китаю «перепрыгнуть» военную мощь «западных держав», что и послужило причиной для размещения рекламы.

Ванг повторяет риторику, которая все чаще звучит от стартапов в сфере оборонных технологий и венчурных капиталистов. Они выступают за большую автономию в ИИ-оружии и за увеличение количества такого оружия в целом. В качестве примера они приводят гипотетическую ситуацию, когда Китай выпускает полностью автономное ИИ-оружие, в то время как США замедляются требованием участия человека в принятии решения перед открытием огня.

Помимо гипотетического оружия другой страны, Ванг попытался обосновать необходимость выбора между Китаем и США в отношении базовых моделей больших языковых моделей (LLM). Он полагает, что это также будет гонкой двух игроков, не упоминая других участников, таких как французская компания Mistral. По его мнению, американские модели основаны на свободе слова, в то время как китайские модели отражают коммунистические общественные взгляды.

Исследователи действительно обнаружили, что многие популярные китайские LLM-модели имеют встроенную государственную цензуру. Кроме того, существуют опасения, что китайское правительство может создавать бэкдоры для сбора данных в своих моделях.

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.