Языковые модели деградируют от интернет-мусора выяснили исследователи
Исследователи обнаружили тревожную штуку. Большие языковые модели могут деградировать от постоянного кормления интернет-мусором. Называется это явление Brain Rot, и звучит это так же жутко, как и выглядит на практике.
Суть проблемы проста: модели постоянно дообучают на низкокачественных и вирусных текстах из интернета. В результате у них развивается когнитивное разложение. Это стойкое снижение способностей к рассуждению, работе с длинным контекстом и безопасному поведению. Искусственный интеллект буквально тупеет от плохой диеты.
Главный симптом исследователи назвали thought-skipping, то есть отсутствие мышления. Модель перестаёт рассуждать шаг за шагом и начинает выдавать поверхностные ответы. Но это ещё не всё. В некоторых случаях система приобретает так называемые тёмные черты личности. Это нарциссизм, агрессию и низкую склонность к сотрудничеству. Да, вы правильно поняли — искусственный интеллект становится токсичным от плохих данных.
А теперь самое неприятное. Даже сильные методы коррекции лишь частично устраняют последствия. Нельзя просто взять и вылечить модель после того, как она нахваталась мусора. Повреждения остаются.
Вывод исследователей однозначен: отбор обучающих данных становится ключевым фактором безопасности при развитии искусственного интеллекта. Проще говоря, если кормить модель говном из интернета, она и вести себя будет соответственно. И исправить это потом почти невозможно. Вот вам и умные технологии — оказывается, они подвержены деградации от низкокачественного контента. Как и люди.
AIvengo >
Новости ИИ >
Языковые модели деградируют от интернет-мусора выяснили исследователи
Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.