Отец обучения с подкреплением предрек конец эры больших языковых моделей

Post Thumbnail

Ричард Саттон — это 1 из отцов обучения с подкреплением и лауреат премии Тьюринга. Так вот он заявил, что эпоха больших языковых моделей подходит к концу. Дальше, по его мнению, наступает эра опыта. И вот почему он так считает.

По его мнению, большие языковые модели — это тупик. Настоящий интеллект должен учиться на опыте, а не на данных. А современные нейросети — это только имитация интеллекта. Они не имеют опыта, не совершают действий и не получают обратной связи от реальности. Поэтому они не способны к настоящему познанию.

По мнению Саттона, человечество создаёт новую форму жизни, основанную на проектировании, а не биологическом размножении. А мы становимся свидетелями перехода от мира, где всё копируется, к миру, где всё проектируется.

Живые существа — это репликаторы, а искусственный интеллект — проектировщики, объясняет он. Мы можем создать системы, которые будут создавать другие системы, и всё это путём конструирования, а не копирования. По его словам, это новый этап эволюции Вселенной.

Получается, что Саттон смотрит на текущий бум больших языковых моделей как на временное явление. Настоящий прорыв, по его мнению, случится тогда, когда системы искусственного интеллекта начнут учиться через взаимодействие с реальностью, получая обратную связь от своих действий. Не через поглощение терабайтов текста, а через настоящий опыт. Как это делают живые существа.

Вот вам и взгляд 1 из основоположников современного машинного обучения на будущее технологии. Получается, большие языковые модели — это не финал, а всего лишь промежуточный этап.

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.