OpenAI запускает программу бенчмарков Pioneers Program

Post Thumbnail

OpenAI объявила о запуске амбициозной программы Pioneers Program, направленной на создание принципиально новых стандартов оценки искусственного интеллекта. Компания намерена разработать систему тестирования ИИ-моделей, которая будет лучше отражать их реальную эффективность в различных профессиональных областях.

«По мере ускорения внедрения ИИ в различных отраслях возникает необходимость лучше понимать и улучшать его влияние на мир», – говорится в блог-посте компании. «Создание специализированных методов оценки – это способ точнее отразить реальные сценарии использования и помочь командам оценивать производительность моделей в практических условиях с высокими ставками».

Необходимость новых стандартов стала очевидной после недавнего скандала с краудсорсинговым бенчмарком LM Arena и моделью Maverick от Meta. Существующие методы оценки часто фокусируются на решении узкоспециализированных задач, например, математических проблем докторского уровня, могут быть легко обойдены или не соответствуют реальным потребностям пользователей.

В рамках Pioneers Program OpenAI планирует создать специализированные бенчмарки для ключевых отраслей, включая юриспруденцию, финансы, страхование, здравоохранение и бухгалтерский учет. В ближайшие месяцы лаборатория будет сотрудничать с различными компаниями для разработки этих стандартов, которые затем станут общедоступными.

«Первая группа участников будет состоять из стартапов, которые помогут заложить основы программы OpenAI Pioneers», – сообщает компания. «Мы отбираем небольшое количество стартапов, работающих над важными прикладными задачами, где ИИ может оказать реальное влияние».

Участники программы получат возможность работать с командой OpenAI над улучшением моделей через технику reinforcement fine tuning, оптимизирующую модели для узкого набора задач.

Однако главный вопрос заключается в том, примет ли ИИ-сообщество бенчмарки, созданные при финансировании OpenAI. Хотя компания и раньше поддерживала подобные инициативы, партнерство с клиентами для создания тестов ИИ может вызвать этические вопросы у профессионального сообщества.

Почитать из последнего
В OpenAI нашли способ засечь проблемное поведение ИИ
OpenAI опубликовала исследование о наблюдаемости цепочки рассуждений ИИ. Звучит академично, но это одна из самых важных работ года. Способности систем растут быстрее инструментов контроля.
Китайская нейросеть GLM за 6 долларов обошла Claude Sonnet по кодингу
Вот вам история о том, как китайцы решили показать Западу, кто тут главный в нейросетях для программирования. Компания Zhipu AI выпустила GLM-4.7. Это флагманская модель с фокусом на кодинг и агентные задачи. И знаете что? По заявлениям разработчиков, на бенчмарке LiveCodeBench модель обошла Claude Sonnet 4.5. На математическом тесте AIME 25 GLM-4.7 тоже показала лучший результат среди моделей. Опередив и Claude Sonnet, и GPT-5.1.
Учёные нашли идиотский способ улучшить ответы нейросетей
Исследователи из Google случайно наткнулись на абсурдный лайфхак, который реально работает. Если повторять промпт дважды — то есть отправлять запрос не в виде обычного текста, а копировать его 2 раза подряд — качество ответов модели в 67% случаев статистически значимо улучшается.
100 тыс. диалогов подтвердили экономию 80% времени с помощью ИИ
Anthropic проанализировала 100 тыс. реальных диалогов с Claude. И эти цифры теперь можно использовать в спорах о пользе искусственного интеллекта. Задачи, которые у людей занимают около 90 минут и стоят примерно 55 долларов труда, Claude выполняет на 80% быстрее человека.
Обнаружен способ обхода защиты ИИ в 90% случаев
Стихи ломают защиту больших языковых моделей. И это плохо для индустрии. Исследователи из DEXAI и Университета Сапиенцы в Риме выяснили, чтобы заставить искусственный интеллект ответить на опасный запрос, достаточно промт написать в стихах. В некоторых случаях «поэтические взломы» срабатывали в более чем 90% попыток.