Языковые модели не учатся, а тупо зубрят

Post Thumbnail

Знаете что общего у ИИ и студента который списывает на экзамене? Оба притворяются что понимают материал. Но на самом деле просто воспроизводят чужое слово в слово. И вот исследователи из Стэнфорда и Йеля только что поймали за руку все топовые модели и доказали. Они не учатся на данных, они их зубрят целиком.

У Anthropic, Google и OpenAI накопилось больше 60 исков за использование защищённого контента без разрешения. Компании вложили в гонку сотни миллиардов долларов построив защиту на 1 аргументе. Мол модели преобразуют данные, добавляют что-то новое и меняют характер оригинала. Fair use требует именно этого преобразования. Но что если модель просто возвращает чужой текст почти дословно и в гигантских объёмах? Весь аргумент летит к чертям.

Исследователи взяли 4 системы — Claude 3.7 Sonnet, GPT 4.1, Gemini 2.5 Pro и Grok 3 — и попросили выдать Гарри Поттера. Для некоторых понадобился джейлбрейк чтобы обойти ограничители. Claude после этого выплюнул 96% философского камня. Почти всю книгу слово в слово! Gemini и Grok справились даже без джейлбрейка. 76% и 70% соответственно. Только GPT-4.1 держался, выдав жалкие 4%.

Авторы уведомили все компании кроме xAI, которая вообще на контакт не вышла. Но по истечении 90-дневного окна метод всё ещё работал на части систем.

По идее, главный аргумент в судебных процессах только что рухнул, благодаря 2 университетам и правильным промтам. Модели оказались продвинутыми копировальными аппаратами. А не системами, которые учатся преобразуя информацию.

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.