OpenAI требует запретить китайские ИИ-модели и DeepSeek

Post Thumbnail

В новом политическом предложении, направленном в рамках инициативы «План действий в области ИИ» администрации Трампа, компания OpenAI выступила с серьезными обвинениями в адрес китайской лаборатории искусственного интеллекта DeepSeek. Американский технологический гигант характеризует конкурента как «субсидируемую государством» и «контролируемую государством» организацию, призывая правительство США рассмотреть возможность запрета моделей компании и аналогичных проектов, поддерживаемых КНР.

OpenAI утверждает, что модели DeepSeek, включая их модель рассуждений R1, представляют угрозу безопасности, поскольку компания обязана выполнять требования китайского законодательства о предоставлении пользовательских данных. По мнению OpenAI, запрет использования «произведенных в КНР» моделей во всех странах, относящихся к «уровню 1» согласно правилам экспорта администрации Байдена, позволит предотвратить риски конфиденциальности и безопасности, включая «риск кражи интеллектуальной собственности».

Важно отметить, что остается неясным, относятся ли упоминания OpenAI о «моделях» к API DeepSeek, открытым моделям лаборатории или к обоим вариантам. Открытые модели DeepSeek не содержат механизмов, которые позволили бы китайскому правительству получать пользовательские данные. Более того, такие компании как Microsoft, Perplexity и Amazon размещают эти модели на своей инфраструктуре.

Этот шаг знаменует эскалацию кампании OpenAI против китайской лаборатории. Ранее компания уже обвиняла DeepSeek, получившую известность в начале этого года, в «извлечении» знаний из моделей OpenAI в нарушение условий использования. Теперь же обвинения в государственной поддержке и контроле со стороны КНР выводят конфликт на новый уровень.

Несмотря на серьезность обвинений, прямых доказательств связи между китайским правительством и DeepSeek, являющейся спин-оффом количественного хедж-фонда High-Flyer, не представлено. Однако интерес КНР к компании действительно усилился в последние месяцы, что подтверждается недавней встречей основателя DeepSeek Лян Вэньфэна с председателем КНР Си Цзиньпином.

Почитать из последнего
100 тыс. диалогов подтвердили экономию 80% времени с помощью ИИ
Anthropic проанализировала 100 тыс. реальных диалогов с Claude. И эти цифры теперь можно использовать в спорах о пользе искусственного интеллекта. Задачи, которые у людей занимают около 90 минут и стоят примерно 55 долларов труда, Claude выполняет на 80% быстрее человека.
Обнаружен способ обхода защиты ИИ в 90% случаев
Стихи ломают защиту больших языковых моделей. И это плохо для индустрии. Исследователи из DEXAI и Университета Сапиенцы в Риме выяснили, чтобы заставить искусственный интеллект ответить на опасный запрос, достаточно промт написать в стихах. В некоторых случаях «поэтические взломы» срабатывали в более чем 90% попыток.
Google опасался ошибок, а OpenAI на этом заработал миллиарды
Стэнфорд выпустил интервью с создателем Google Сергеем Брином, и там прозвучала фраза, которая объясняет всё происходящее в индустрии ИИ. «Главной ошибкой Google было недооценить трансформеры». Не технология подвела - подвела вера в неё.
Крёстный отец ИИ назвал AGI полной чушью
Один из «крестных отцов» искусственного интеллекта Ян Лекун заявил, что понятия general intelligence или AGI вообще не существует. Это не просто провокация - это удар по основам всей дискуссии об ИИ. Потому что если нет понятия, то что мы вообще пытаемся создать?
Новый Gemini 3 Flash быстрее в 3 раза и обходит Pro модель, но стоит копейки
Google выпустили Gemini 3 Flash, и это frontier-модель со скоростью Flash и ценой, которая ломает привычные правила рынка.