MIT и Microsoft разоблачили ложь GPT-3.5
Команда ученых из MIT и Microsoft разработала методику, позволяющую заглянуть за кулисы мышления языковых моделей. И понять, когда они нам врут. Исследование раскрывает тревожные случаи системного несоответствия между реальными причинами решений моделей и их вербальными объяснениями.
Особенно показателен эксперимент с GPT-3.5, который демонстрировал гендерные предубеждения при оценке кандидатов на должность медсестры, систематически завышая баллы женщинам. Даже после смены пола в резюме. При этом в своих объяснениях модель утверждала, что ориентируется исключительно на возраст и профессиональные навыки.
Исследователи также обнаружили многочисленные примеры, где языковые модели явно ориентировались на расу или доход. Но в объяснениях говорили только о поведении или опыте. А в медицинских кейсах были выявлены случаи, когда искусственный интеллект принимал решения на основе важнейших симптомов, но умалчивал об этом в своих пояснениях.
Методика выявления таких расхождений исключительно элегантна. Вспомогательная модель сначала определяет ключевые понятия в вопросе, затем генерирует контрфактические варианты, меняя 1 из понятий, и проверяет, повлияет ли это на ответ основной модели. Если ответ меняется, но в объяснении этот фактор не упоминается – перед нами недостоверное объяснение.
Почитать из последнего
Молчаливый тиктокер с покерфейсом продал свою компанию за 900 миллионов
Хаби Лейм – это такой молчаливый тиктокер с покерфейсом и 160 миллионами подписчиков. И вот он продал свою компанию за $900 миллионов. Сумма огромная, но нюанс в том, что это за продажа. Фишка в условиях контракта - это создание искусственного аватара, который будет вести стримы, сниматься в рекламе и продавать товары 24 часа в сутки. Пока настоящий Хаби спит или играет, его цифровая копия будет вкалывать в другом часовом поясе.
Гуманоиды работают в три раза хуже людей
Знаете, что объединяет хайп вокруг гуманоидов и реальность? Ничего. Но некоторые паникуют из-за того, что гуманоиды массово заменят людей на заводах. И тут директор китайской компании UBTech Майкл Там взял и честно признался Financial Times. Их новейшие человекоподобные роботы достигают производительности всего в 30-50% от человеческой. И это только в простейших операциях типа складывания коробок или контроля качества. Грубо говоря, 1 работник человек делает столько же, сколько 2-3 робота вместе взятых.
Clawdbot слил ключи и переписки сотен пользователей (я вас предупреждал)
Я вчера вам рассказывал про открытый ИИ-ассистент Clawdbot, который взорвал GitHub. 60 тысяч звёзд за 3 дня, все в восторге, все ставят себе. Но я вас предупредил про безопасность. И тут исследователь Джеймисон О'Рейли просто вбивает пару запросов и находит сотни публично доступных серверов. Без аутентификации. С API-ключами, токенами мессенджеров и полной историей переписок на блюдечке.
Ведущие учёные по ИИ попались на выдуманных ИИ цитатах
Когда престижная конференция по ИИ сама становится жертвой галлюцинаций нейросетей, ирония зашкаливает. GPTZero просканировал все 4841 работу, принятую на Conference on Neural Information Processing Systems в декабре в Сан-Диего. И обнаружил 100 подтверждённых фальшивых цитат в 51 статье. Причём речь идёт о ведущих умах индустрии искусственного интеллекта.
OpenAI запускает рекламу в ChatGPT от 60 долларов
OpenAI решила монетизировать ChatGPT через рекламу, и цены оказались космическими. Около $60 за 1000 просмотров. Это уровень премиум-контента на телевидении вроде матчей NFL, когда миллионы людей смотрят одновременно. И бренды готовы платить безумные деньги. Только вот между телетрансляцией финала чемпионата и чатботом есть небольшая разница. Это масштаб аудитории и проверенная модель монетизации.