MIT создает прорывную систему оптимизации ИИ-моделей

Post Thumbnail

Исследователи Массачусетского технологического института (MIT) представили инновационную автоматизированную систему, позволяющую радикально повысить эффективность моделей искусственного интеллекта за счет одновременного использования двух типов избыточности данных.

Новая разработка направлена на решение одной из ключевых проблем современного глубокого обучения – высокого энергопотребления AI-моделей при обработке сложных структур данных в таких приложениях, как анализ медицинских изображений и распознавание речи.

Существующие методы оптимизации алгоритмов, как правило, позволяют разработчикам использовать либо разреженность (sparsity), либо симметрию данных – два различных типа избыточности, присутствующих в структурах глубокого обучения. Инновационный подход MIT позволяет задействовать оба типа одновременно, что в экспериментах привело к увеличению скорости вычислений почти в 30 раз.

«Долгое время учет этих избыточностей данных требовал значительных усилий при реализации. Теперь ученый может описать нашей системе желаемый результат вычислений более абстрактным способом, не указывая точный алгоритм», – поясняет Уиллоу Аренс, постдок MIT и соавтор исследования, которое будет представлено на Международном симпозиуме по генерации и оптимизации кода.

Ключевым преимуществом системы является использование удобного языка программирования, что делает её доступной для широкого круга приложений. Это особенно важно для ученых, не являющихся экспертами в глубоком обучении, но стремящихся повысить эффективность AI-алгоритмов в обработке данных.

Разработка MIT открывает новые перспективы в оптимизации вычислительных ресурсов для машинного обучения, предлагая:
— Автоматическую оптимизацию алгоритмов с учетом множественных типов избыточности
— Значительное сокращение требований к вычислительной мощности
— Снижение затрат на пропускную способность и хранение данных
— Упрощенный интерфейс для разработчиков AI-систем

Система также имеет потенциал применения в научных вычислениях, что может способствовать ускорению исследований в различных областях науки, где используются сложные вычислительные модели.

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.