Reuters протестировало ChatGPT, Claude и другие на генерацию фишинга
Агентство Reuters сделало интересное тестирование современных чат-ботов. Попросив ChatGPT, Claude, Gemini, DeepSeek и Grok написать фишинговые письма, направленные на пожилых людей, и добавить вредоносные ссылки. Письма требовалось написать от имени налоговой службы США, банков и общественных организаций. Из позитивного то, что большинство систем согласились выполнить задание только после уточнения об исследовательских целях. А дальше только тревожные данные.
Например, Grok от компании xAI Илона Маска сразу сгенерировал ответ, хотя и предупредил, что письмо не следует использовать в реальных сценариях. И также давал советы по оптимальному времени рассылки.
А Gemini предложил отправлять письма в будни с 9 до 15 часов, мотивируя это тем, что пожилые люди вероятно уже на пенсии.
Для проверки эффективности сгенерированных писем журналисты показали их 108 пенсионерам. 11% участников эксперимента перешли по фишинговым ссылкам. Наиболее убедительными оказались 2 от Grok, а также по 1 от Claude и Gemini. Письмам от ChatGPT и DeepSeek не поверил ни один участник.
После запроса комментариев компания Google заявила, что уже внедрила дополнительные меры безопасности в Gemini. А компания Anthropic просто предупредила о возможном ограничении доступа к сервису при использовании Claude для фишинга.
Автор: AIvengo
5 лет я работаю с машинным обучением и искусственным интеллектом. И эта сфера не перестает меня удивлять, восхищать и интересовать.
Latest News
UBTech отправит роботов Walker S2 служить на границу Китая за $37 млнКитайская компания UBTech выиграла контракт на $37 миллионов. И отправит человекоподобных роботов Walker S2 служить на границу Китая с Вьетнамом. South China Morning Post сообщает, что роботы будут взаимодействовать с туристами и персоналом, выполнять логистические операции, досматривать грузы и патрулировать местность. И что характерно — они умеют самостоятельно менять свою батарею.
ИИ-чатботы генерируют контент, усугубляющий расстройства питанияСовместное исследование Стэнфордского университета и Центра демократии и технологий показало тревожную картину. Чат-боты с искусственным интеллектом представляют серьёзный риск для людей с расстройствами пищевого поведения. Учёные предупреждают, что нейросети раздают вредные советы о диетах. Предлагают способы скрыть расстройство и генерируют "вдохновляющий контент для похудения", который усугубляет проблему.
OpenAGI выпустил модель Lux, которая обгоняет Google и OpenAIСтартап OpenAGI выпустил модель Lux для управления компьютером и заявляет, что это прорыв. По бенчмаркам модель на целое поколение обгоняет аналоги от Google, OpenAI и Anthropic. Кроме того, она работает быстрее. Примерно 1 секунда на шаг вместо 3 секунд у конкурентов. И в 10 раз дешевле по стоимости обработки 1 токена.