11 из 14 ключевых учёных покинули команду Llama

Post Thumbnail

Компания Meta переживает непростой период в развитии своих технологий искусственного интеллекта. После неудачного релиза модели Llama 4 компания столкнулась с новыми проблемами. Отложен выпуск модели Behemoth, которая должна была стать самой мощной в линейке Llama 4 и планировалась к выпуску в этом месяце. Теперь сроки релиза неизвестны, и неясно, увидит ли эта модель свет вообще.

Причин для такого развития событий несколько. Прежде всего, руководство Meta выражает серьёзное недовольство работой команды, ответственной за разработку Llama. И планирует существенные изменения в её составе. Ситуация усугубляется тем, что команда уже потеряла значительную часть ключевых специалистов. 11 из 14 ведущих учёных, работавших над ранними версиями Llama, ушли из компании.

Вторая серьёзная проблема связана с самой моделью Behemoth. Марк Цукерберг ранее делал громкие заявления, обещая, что новая модель превзойдёт ведущие языковые модели от конкурентов — OpenAI, Google и Anthropic. Однако в процессе обучения возникли непредвиденные трудности, и модель показывает результаты гораздо хуже ожидаемых, что ставит под сомнение целесообразность её выпуска в текущем состоянии.

Эти неудачи происходят на фоне недавнего скандала, когда компанию обвинили в недобросовестном поведении при тестировании своих моделей. Meta представила на платформе LMSYS не пользовательскую версию модели, а специально оптимизированную внутреннюю версию. Настроенную под конкретные тесты этой платформы, что ни что иное, как манипуляция рейтингами и обман пользователей.

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.