Post Thumbnail

Гендиректор Scale AI и идея “выиграть ИИ-войну с Китаем”

Выступление генерального директора Scale AI Александра Ванга на открытии Web Summit Qatar встретило неожиданно холодный прием со стороны международной аудитории, не разделившей его милитаристский взгляд на развитие искусственного интеллекта.

В прошлом месяце Ванг разместил полностраничное объявление в The Washington Post с обращением к президенту Трампу, в котором утверждал, что “Америка должна выиграть войну ИИ”. Однако когда интервьюер Феликс Салмон из Axios провел опрос среди присутствующих на саммите, всего две руки поднялись в поддержку этого мнения. При этом “подавляющее большинство” аудитории выразило несогласие.

Ванг попытался обосновать свою позицию: “ИИ фундаментально изменит природу национальной безопасности”. Он упомянул, что вырос в Лос-Аламосе, штат Нью-Мексико, “месте рождения атомной бомбы”, и что оба его родителя были физиками, работавшими в Национальной лаборатории.

CEO Scale AI охарактеризовал ситуацию как гонку между США и Китаем, выразив опасение, что ИИ позволит Китаю “перепрыгнуть” военную мощь “западных держав”, что и послужило причиной для размещения рекламы.

Ванг повторяет риторику, которая все чаще звучит от стартапов в сфере оборонных технологий и венчурных капиталистов. Они выступают за большую автономию в ИИ-оружии и за увеличение количества такого оружия в целом. В качестве примера они приводят гипотетическую ситуацию, когда Китай выпускает полностью автономное ИИ-оружие, в то время как США замедляются требованием участия человека в принятии решения перед открытием огня.

Помимо гипотетического оружия другой страны, Ванг попытался обосновать необходимость выбора между Китаем и США в отношении базовых моделей больших языковых моделей (LLM). Он полагает, что это также будет гонкой двух игроков, не упоминая других участников, таких как французская компания Mistral. По его мнению, американские модели основаны на свободе слова, в то время как китайские модели отражают коммунистические общественные взгляды.

Исследователи действительно обнаружили, что многие популярные китайские LLM-модели имеют встроенную государственную цензуру. Кроме того, существуют опасения, что китайское правительство может создавать бэкдоры для сбора данных в своих моделях.

Автор: AIvengo
5 лет я работаю с машинным обучением и искусственным интеллектом. И эта сфера не перестает меня удивлять, восхищать и интересовать.
Latest News
Главный экономист МВФ сравнил бум ИИ с пузырём доткомов

Главный экономист МВФ Пьер-Оливье Гуринша заявил, что мир уже прошёл половину пути до лопнувшего пузыря искусственного интеллекта и нового финансового кризиса.

Исследователи взломали 12 систем защиты ИИ

Знаете, что только что выяснили исследователи из OpenAI, Anthropic, Google DeepMind и Гарварда? Они попытались сломать популярные системы безопасности искусственного интеллекта и почти везде нашли обход. Проверяли 12 распространённых подходов к защите. От умных формулировок системного промпта до внешних фильтров, которые должны ловить опасные запросы.

У OpenAI есть 5 лет чтобы превратить $13 млрд в триллион

Знаете, в каком положении сейчас находится OpenAI? По сообщению Financial Times, у компании есть 5 лет, чтобы превратить 13 млрд долларов в триллион. И вот как это выглядит на практике.

Сэм Альтман обещает вернуть человечность в ChatGPT

Глава OpenAI Сэм Альтман сделал заявление после того, как прошли многочисленные оффлайн и онлайн протесты против отключения модели GPT-4о. А потом включение, но с диким маршрутизатором. Я рассказывал про это на прошлой неделе максимально подробно. Прямая цитата главы OpenAI.

ИИ оживает: почему сооснователь Anthropic боится своего творения

Сооснователь Anthropic Джек Кларк опубликовал эссе, от которого становится не по себе. Он написал про природу современного искусственного интеллекта, и его выводы звучат как предупреждение.