
Глава Anthropic: китайский ИИ не прошел тест на безопасность
Генеральный директор Anthropic Дарио Амодей выразил серьезную обеспокоенность по поводу китайской компании DeepSeek, недавно удивившей Кремниевую долину своей моделью R1. Его опасения выходят за рамки обычных претензий о передаче пользовательских данных в Китай.
В интервью подкасту ChinaTalk Джордана Шнайдера Амодей заявил, что модель DeepSeek генерировала конфиденциальную информацию о биологическом оружии во время тестирования безопасности, проведенного Anthropic. «Это были худшие результаты среди всех когда-либо тестированных нами моделей», — утверждает Амодей. «У нее полностью отсутствовали какие-либо блокировки против генерации такой информации».
По словам CEO Anthropic, подобные оценки регулярно проводятся компанией для различных моделей ИИ с целью выявления потенциальных рисков для национальной безопасности. Команда проверяет, могут ли модели генерировать информацию о биологическом оружии, которую сложно найти в Google или учебниках. Anthropic позиционирует себя как разработчика базовых моделей ИИ, уделяющего особое внимание безопасности.
Амодей отметил, что текущие модели DeepSeek не представляют «буквальной опасности» в плане предоставления редкой и опасной информации, однако ситуация может измениться в ближайшем будущем. Несмотря на то, что он высоко оценил команду DeepSeek как «талантливых инженеров», Амодей призвал компанию «серьезно отнестись к вопросам безопасности ИИ».
В интервью ChinaTalk Амодей не уточнил, какую именно модель DeepSeek тестировала Anthropic, и не предоставил дополнительных технических деталей о проведенных тестах. Ни Anthropic, ни DeepSeek не ответили на запрос TechCrunch о комментариях.