Принцип «гладкости» позволил TopoLM имитировать архитектуру мозга

Post Thumbnail

Лаборатория NeuroAI при Федеральной политехнической школе Лозанны открывает новую страницу в развитии систем искусственного интеллекта. Их разработка TopoLM не просто обрабатывает информацию. Она организует свои нейронные структуры по принципам, схожим с человеческим мозгом. Это достижение может изменить наше понимание взаимосвязи между биологическим и искусственным интеллектом.

До появления TopoLM языковые модели могли лишь частично копировать организацию мозга. Формируя функциональные группы нейронов для обработки разных типов информации. Но мозг – это не только набор специализированных участков. Его эффективность во многом определяется тем, как эти участки расположены относительно друг друга. Именно эту особенность удалось воспроизвести в новой модели.

Исследователи применили принцип «гладкости» внутренних представлений в пространстве, основываясь на изучении зрительной системы мозга. В результате искусственные нейроны в TopoLM начали самостоятельно формировать группы. Которые не только выполняют схожие задачи, но и располагаются в пространстве подобно нейронным кластерам в коре головного мозга человека.

Это открытие поднимает фундаментальные вопросы о природе интеллекта. Если пространственная организация нейронов играет ключевую роль в работе мозга, возможно, именно этот принцип поможет создать системы искусственного интеллекта, способные к более глубокому пониманию языка и контекста.

Похоже, что разработка TopoLM демонстрирует, что эффективность работы искусственного интеллекта напрямую связана с имитацией не только функциональной. Но и пространственной организации биологического мозга. И это может привести к появлению нового поколения систем искусственного интеллекта, чья архитектура будет еще ближе к структуре человеческого мозга.

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.