Post Thumbnail

MIT создает прорывную систему оптимизации ИИ-моделей

Исследователи Массачусетского технологического института (MIT) представили инновационную автоматизированную систему, позволяющую радикально повысить эффективность моделей искусственного интеллекта за счет одновременного использования двух типов избыточности данных.

Новая разработка направлена на решение одной из ключевых проблем современного глубокого обучения – высокого энергопотребления AI-моделей при обработке сложных структур данных в таких приложениях, как анализ медицинских изображений и распознавание речи.

Существующие методы оптимизации алгоритмов, как правило, позволяют разработчикам использовать либо разреженность (sparsity), либо симметрию данных – два различных типа избыточности, присутствующих в структурах глубокого обучения. Инновационный подход MIT позволяет задействовать оба типа одновременно, что в экспериментах привело к увеличению скорости вычислений почти в 30 раз.

“Долгое время учет этих избыточностей данных требовал значительных усилий при реализации. Теперь ученый может описать нашей системе желаемый результат вычислений более абстрактным способом, не указывая точный алгоритм”, – поясняет Уиллоу Аренс, постдок MIT и соавтор исследования, которое будет представлено на Международном симпозиуме по генерации и оптимизации кода.

Ключевым преимуществом системы является использование удобного языка программирования, что делает её доступной для широкого круга приложений. Это особенно важно для ученых, не являющихся экспертами в глубоком обучении, но стремящихся повысить эффективность AI-алгоритмов в обработке данных.

Разработка MIT открывает новые перспективы в оптимизации вычислительных ресурсов для машинного обучения, предлагая:
– Автоматическую оптимизацию алгоритмов с учетом множественных типов избыточности
– Значительное сокращение требований к вычислительной мощности
– Снижение затрат на пропускную способность и хранение данных
– Упрощенный интерфейс для разработчиков AI-систем

Система также имеет потенциал применения в научных вычислениях, что может способствовать ускорению исследований в различных областях науки, где используются сложные вычислительные модели.

Автор: AIvengo
5 лет я работаю с машинным обучением и искусственным интеллектом. И эта сфера не перестает меня удивлять, восхищать и интересовать.
Latest News
UBTech отправит роботов Walker S2 служить на границу Китая за $37 млн

Китайская компания UBTech выиграла контракт на $37 миллионов. И отправит человекоподобных роботов Walker S2 служить на границу Китая с Вьетнамом. South China Morning Post сообщает, что роботы будут взаимодействовать с туристами и персоналом, выполнять логистические операции, досматривать грузы и патрулировать местность. И что характерно — они умеют самостоятельно менять свою батарею.

Anthropic случайно раскрыла внутренний документ о "душе" Claude

Anthropic случайно раскрыла пользователю "душу" искусственного интеллекта. И это не метафора. Это вполне конкретный внутренний документ.

Дженсен Хуанг приказал сотрудникам Nvidia использовать ИИ везде

Дженсен Хуанг объявил внутри Nvidia тотальную мобилизацию под знаменем искусственного интеллекта. И это уже не рекомендация. Это требование.

ИИ-чатботы генерируют контент, усугубляющий расстройства питания

Совместное исследование Стэнфордского университета и Центра демократии и технологий показало тревожную картину. Чат-боты с искусственным интеллектом представляют серьёзный риск для людей с расстройствами пищевого поведения. Учёные предупреждают, что нейросети раздают вредные советы о диетах. Предлагают способы скрыть расстройство и генерируют "вдохновляющий контент для похудения", который усугубляет проблему.

OpenAGI выпустил модель Lux, которая обгоняет Google и OpenAI

Стартап OpenAGI выпустил модель Lux для управления компьютером и заявляет, что это прорыв. По бенчмаркам модель на целое поколение обгоняет аналоги от Google, OpenAI и Anthropic. Кроме того, она работает быстрее. Примерно 1 секунда на шаг вместо 3 секунд у конкурентов. И в 10 раз дешевле по стоимости обработки 1 токена.