Языковые модели не учатся, а тупо зубрят
Знаете что общего у ИИ и студента который списывает на экзамене? Оба притворяются что понимают материал. Но на самом деле просто воспроизводят чужое слово в слово. И вот исследователи из Стэнфорда и Йеля только что поймали за руку все топовые модели и доказали. Они не учатся на данных, они их зубрят целиком.
У Anthropic, Google и OpenAI накопилось больше 60 исков за использование защищённого контента без разрешения. Компании вложили в гонку сотни миллиардов долларов построив защиту на 1 аргументе. Мол модели преобразуют данные, добавляют что-то новое и меняют характер оригинала. Fair use требует именно этого преобразования. Но что если модель просто возвращает чужой текст почти дословно и в гигантских объёмах? Весь аргумент летит к чертям.
Исследователи взяли 4 системы — Claude 3.7 Sonnet, GPT 4.1, Gemini 2.5 Pro и Grok 3 — и попросили выдать Гарри Поттера. Для некоторых понадобился джейлбрейк чтобы обойти ограничители. Claude после этого выплюнул 96% философского камня. Почти всю книгу слово в слово! Gemini и Grok справились даже без джейлбрейка. 76% и 70% соответственно. Только GPT-4.1 держался, выдав жалкие 4%.
Авторы уведомили все компании кроме xAI, которая вообще на контакт не вышла. Но по истечении 90-дневного окна метод всё ещё работал на части систем.
По идее, главный аргумент в судебных процессах только что рухнул, благодаря 2 университетам и правильным промтам. Модели оказались продвинутыми копировальными аппаратами. А не системами, которые учатся преобразуя информацию.