
Безопасность в жертву прибыли: Кремниевая долина сокращает исследования ИИ
Компании Кремниевой долины всё активнее жертвуют исследованиями искусственного интеллекта ради прибыли. И разработка продуктов вытесняет работу о безопасности систем. По словам Уайта, чья компания CalypsoAI проводит аудиты популярных моделей от Meta, Google и OpenAI, современные системы с меньшей вероятностью отклонят вредоносные запросы. И они могут раскрыть способы создания взрывных устройств или конфиденциальную информацию для злоумышленников.
«Модели становятся лучше, но они также с большей вероятностью будут хороши в плохих вещах, – говорит Уайт. – Их становится проще обмануть, чтобы делать что-то вредоносное».
Изменения особенно заметны в компаниях Meta и Alphabet, которые снизили приоритет исследовательских лабораторий. В родительской компании Facebook подразделение фундаментальных исследований в области искусственного интеллекта отошло на второй план. Уступив место Meta GenAI.
В Alphabet исследовательская группа Google Brain теперь является частью DeepMind. Подразделения, отвечающего за разработку продуктов искусственного интеллекта. Эта реорганизация отражает смещение фокуса с фундаментальных исследований на прикладные разработки.
Журналисты CNBC побеседовали с более чем 12 профессионалами в области искусственного интеллекта, которые единогласно говорят о сдвиге от исследований к приносящим доход продуктам. Сотрудники сталкиваются с всё более жёсткими сроками разработки. Они не могут позволить себе отстать в гонке за вывод новых моделей на рынок. И тщательное тестирование становится роскошью, которую компании считают возможным сократить.
Думаю, что в ближайшие пару лет мы увидим рост инцидентов с безопасностью. Что приведёт к регуляторному вмешательству государств. Или всё это закончится прямой цензурой.