Post Thumbnail

Японская лаборатория создала ИИ который думает как человеческий мозг

Представьте, как работает человеческий мозг. Он не выдаёт моментальных ответов, как современные системы искусственного интеллекта. Японские учёные из лаборатории SakanaAI создали систему, которая приближает работу искусственного интеллекта к естественным процессам мышления.

Система получила название Continuous Thought Machine, или CTM. В отличие от стандартных нейросетей, она не ограничивается 1 попыткой найти решение. Вместо этого CTM может многократно обрабатывать информацию, используя то, что исследователи называют «тиками мышления».

Принцип работы CTM можно объяснить через процесс решения сложной задачи. Мозг обрабатывает информацию постепенно. Сначала включаются одни участки, затем подключаются другие. CTM работает аналогично. Она может выполнить от 5 до 50 итераций обработки данных перед формированием окончательного ответа.

В основе системы лежат необычные искусственные нейроны. Каждый из них представляет собой не простую формулу, а полноценную многослойную сеть MLP. Способную хранить историю своих предыдущих состояний. Это создаёт своеобразный журнал вычислений, позволяющий системе анализировать промежуточные результаты.

Ключевая особенность CTM – синхронизация работы нейронов. Как в симфоническом оркестре важна не только игра отдельных музыкантов, но и их совместное звучание, так и в нейронных процессах критична согласованность активации разных участков. Специальная матрица синхронизаций в CTM отслеживает эти нейронные «созвучия».

Практические тесты подтверждают эффективность новой архитектуры. CTM демонстрирует высокие результаты при работе с базами данных. А также успешно справляется с задачами навигации в лабиринтах, часто превосходя традиционные подходы. Ссылка на интерактивную презентацию системы в описании.

Наверное, это один из первых механизмов пошагового осмысления информации, который существенно приближает работу нейросети к биологическим принципам мышления. Где работает система множественных итераций обработки данных, механизм сохранения истории состояний нейронов и матрица отслеживания их синхронной работы. Подобное сочетание отсутствует в существующих архитектурах.

Автор: AIvengo
5 лет я работаю с машинным обучением и искусственным интеллектом. И эта сфера не перестает меня удивлять, восхищать и интересовать.
Latest News
UBTech отправит роботов Walker S2 служить на границу Китая за $37 млн

Китайская компания UBTech выиграла контракт на $37 миллионов. И отправит человекоподобных роботов Walker S2 служить на границу Китая с Вьетнамом. South China Morning Post сообщает, что роботы будут взаимодействовать с туристами и персоналом, выполнять логистические операции, досматривать грузы и патрулировать местность. И что характерно — они умеют самостоятельно менять свою батарею.

Anthropic случайно раскрыла внутренний документ о "душе" Claude

Anthropic случайно раскрыла пользователю "душу" искусственного интеллекта. И это не метафора. Это вполне конкретный внутренний документ.

Дженсен Хуанг приказал сотрудникам Nvidia использовать ИИ везде

Дженсен Хуанг объявил внутри Nvidia тотальную мобилизацию под знаменем искусственного интеллекта. И это уже не рекомендация. Это требование.

ИИ-чатботы генерируют контент, усугубляющий расстройства питания

Совместное исследование Стэнфордского университета и Центра демократии и технологий показало тревожную картину. Чат-боты с искусственным интеллектом представляют серьёзный риск для людей с расстройствами пищевого поведения. Учёные предупреждают, что нейросети раздают вредные советы о диетах. Предлагают способы скрыть расстройство и генерируют "вдохновляющий контент для похудения", который усугубляет проблему.

OpenAGI выпустил модель Lux, которая обгоняет Google и OpenAI

Стартап OpenAGI выпустил модель Lux для управления компьютером и заявляет, что это прорыв. По бенчмаркам модель на целое поколение обгоняет аналоги от Google, OpenAI и Anthropic. Кроме того, она работает быстрее. Примерно 1 секунда на шаг вместо 3 секунд у конкурентов. И в 10 раз дешевле по стоимости обработки 1 токена.