Post Thumbnail

Глава Anthropic: китайский ИИ не прошел тест на безопасность

Генеральный директор Anthropic Дарио Амодей выразил серьезную обеспокоенность по поводу китайской компании DeepSeek, недавно удивившей Кремниевую долину своей моделью R1. Его опасения выходят за рамки обычных претензий о передаче пользовательских данных в Китай.

В интервью подкасту ChinaTalk Джордана Шнайдера Амодей заявил, что модель DeepSeek генерировала конфиденциальную информацию о биологическом оружии во время тестирования безопасности, проведенного Anthropic. «Это были худшие результаты среди всех когда-либо тестированных нами моделей», — утверждает Амодей. «У нее полностью отсутствовали какие-либо блокировки против генерации такой информации».

По словам CEO Anthropic, подобные оценки регулярно проводятся компанией для различных моделей ИИ с целью выявления потенциальных рисков для национальной безопасности. Команда проверяет, могут ли модели генерировать информацию о биологическом оружии, которую сложно найти в Google или учебниках. Anthropic позиционирует себя как разработчика базовых моделей ИИ, уделяющего особое внимание безопасности.

Амодей отметил, что текущие модели DeepSeek не представляют «буквальной опасности» в плане предоставления редкой и опасной информации, однако ситуация может измениться в ближайшем будущем. Несмотря на то, что он высоко оценил команду DeepSeek как «талантливых инженеров», Амодей призвал компанию «серьезно отнестись к вопросам безопасности ИИ».

В интервью ChinaTalk Амодей не уточнил, какую именно модель DeepSeek тестировала Anthropic, и не предоставил дополнительных технических деталей о проведенных тестах. Ни Anthropic, ни DeepSeek не ответили на запрос TechCrunch о комментариях.

Автор: AIvengo
5 лет я работаю с машинным обучением и искусственным интеллектом. И эта сфера не перестает меня удивлять, восхищать и интересовать.

Latest News

OpenAI готовит первую открытую модель не слабее O3 Mini

Компания OpenAI готовится выпустить свою 1 открытую языковую модель. Оправдает своё название, так сказать. Это серьёзный поворот для компании, которая раньше держала свои мощные разработки закрытыми.

Grok 4 набрал 57% в "Последнем экзамене" против 22% у Gemini 2.5 Pro

Илон Маск представил новую версию своей нейросети – Grok 4. Максимальная версия – Grok 4 Heavy – способна запускать несколько вычислений одновременно и набирает 57% в сложнейшем тесте "Последний экзамен человечества". Для сравнения, предыдущий лидер Gemini 2.5 Pro показывал только 22%.

Исследователи нашли уязвимость ИИ через факты о кошках

От этой новости я мягко говоря удивился. Знаете ли вы, что обычное упоминание кошек может сбить с толку самые продвинутые модели искусственного интеллекта? Учёные обнаружили удивительную уязвимость в мыслительных процессах нейросетей.

IT-компании США уволили 94 тыс. сотрудников за полгода из-за ИИ

За 1 полугодие 2025 года американские IT-компании уволили более 94 тыс. технических специалистов. Это не просто экономия. Это структурное изменение под влиянием искусственного интеллекта.

OpenAI наняла первого психиатра в ИИ-индустрии для изучения влияния ChatGPT на психику

Компания OpenAI сообщила, что наняла профессионального клинического психиатра с опытом в судебной психиатрии. Чтобы исследовать влияние своих продуктов с искусственным интеллектом на психическое здоровье пользователей.