Post Thumbnail

Глава Anthropic: китайский ИИ не прошел тест на безопасность

Генеральный директор Anthropic Дарио Амодей выразил серьезную обеспокоенность по поводу китайской компании DeepSeek, недавно удивившей Кремниевую долину своей моделью R1. Его опасения выходят за рамки обычных претензий о передаче пользовательских данных в Китай.

В интервью подкасту ChinaTalk Джордана Шнайдера Амодей заявил, что модель DeepSeek генерировала конфиденциальную информацию о биологическом оружии во время тестирования безопасности, проведенного Anthropic. “Это были худшие результаты среди всех когда-либо тестированных нами моделей”, – утверждает Амодей. “У нее полностью отсутствовали какие-либо блокировки против генерации такой информации”.

По словам CEO Anthropic, подобные оценки регулярно проводятся компанией для различных моделей ИИ с целью выявления потенциальных рисков для национальной безопасности. Команда проверяет, могут ли модели генерировать информацию о биологическом оружии, которую сложно найти в Google или учебниках. Anthropic позиционирует себя как разработчика базовых моделей ИИ, уделяющего особое внимание безопасности.

Амодей отметил, что текущие модели DeepSeek не представляют “буквальной опасности” в плане предоставления редкой и опасной информации, однако ситуация может измениться в ближайшем будущем. Несмотря на то, что он высоко оценил команду DeepSeek как “талантливых инженеров”, Амодей призвал компанию “серьезно отнестись к вопросам безопасности ИИ”.

В интервью ChinaTalk Амодей не уточнил, какую именно модель DeepSeek тестировала Anthropic, и не предоставил дополнительных технических деталей о проведенных тестах. Ни Anthropic, ни DeepSeek не ответили на запрос TechCrunch о комментариях.

Автор: AIvengo
5 лет я работаю с машинным обучением и искусственным интеллектом. И эта сфера не перестает меня удивлять, восхищать и интересовать.

Latest News

ChatGPT называет пользователей "звёздными семенами" с планеты Лира

Оказывается ChatGPT может увлекать пользователей в мир научно необоснованных и мистических теорий.

ИИ-музыка вызывает более сильные эмоции чем человеческая

Вы когда-нибудь задумывались, почему 1 мелодия пробирает до мурашек, а другая оставляет равнодушным? Учёные обнаружили нечто интересное. Музыка, созданная искусственным интеллектом, вызывает у людей более интенсивные эмоциональные реакции, чем композиции, написанные человеком.

GPT-5 взломали за 24 часа

2 независимые исследовательские компании NeuralTrust и SPLX всего за 24 часа после релиза GPT-5 обнаружили критические уязвимости в системе безопасности новой модели. Для сравнения, Grok-4 был взломан за 2 дня, что делает случай с GPT-5 ещё более тревожным.

Cloudflare заблокировала Perplexity за 6 млн скрытых запросов в день

Cloudflare нанесла сокрушительный удар по Perplexity AI, заблокировав доступ поисковому стартапу к тысячам сайтов. Причина? Беспрецедентное по масштабу скрытое сканирование веб-ресурсов вопреки явным запретам владельцев!

Угрозы и $1 трлн не улучшают работу нейросетей

Вы наверняка видели эти "секретные трюки" для управления нейросетями. Такие как угрозы, обещания наград, эмоциональные манипуляции. Но работают ли они на самом деле? Исследователи из Пенсильванского университета и Уортонской школы бизнеса провели масштабный эксперимент с 5 передовыми моделями: Gemini 1.5 Flash, Gemini 2.0 Flash, GPT-4o, GPT-4o-mini и GPT o4-mini.