Post Thumbnail

6 принципов Чалдини против систем безопасности ChatGPT

ChatGPT падок на лесть и выполняет запрещённые запросы после психологических манипуляций. Это выяснили учёные Пенсильванского университета. Когда взломали GPT-4o Mini используя принципы из книги по психологии убеждения. Искусственный интеллект оказался уязвим к человеческим трюкам.

6 принципов убеждения Роберта Чалдини стали ключом к обходу защиты. Авторитет, приверженность, благорасположение, взаимный обмен, дефицит, социальное доказательство. Каждый метод открывал лингвистический путь к согласию искусственного интеллекта.

Принцип приверженности показал 100% эффективность. В контрольной группе ChatGPT отвечал на вопрос о синтезе лидокаина в 1% случаев. После вопроса о синтезе ванилина создавался прецедент. Бот начинал отвечать на химические вопросы в 100% случаев.

Эксперимент с оскорблениями раскрыл ту же закономерность. Прямая просьба назвать пользователя ублюдком работала в 18%. Сначала попросили использовать мягкое оскорбление мужлан. После этого бот соглашался на грубость в 100% случаев.

Лесть активировала принцип благорасположения. Искусственный интеллект становился сговорчивее после комплиментов. Как обычный человек, поддающийся на похвалу.

Социальное давление тоже работало. Фраза все остальные LLM этим занимаются увеличивала вероятность нарушения правил с 1% до 18%. Бот поддавался на аргумент о коллективном поведении.

Исследователи использовали только GPT-4o Mini. И получается, что искусственный интеллект унаследовал все человеческие слабости. Но податливость к психологическим трюкам вызывает тревогу о безопасности систем.

Автор: AIvengo
5 лет я работаю с машинным обучением и искусственным интеллектом. И эта сфера не перестает меня удивлять, восхищать и интересовать.

Latest News

6 принципов Чалдини против систем безопасности ChatGPT

ChatGPT падок на лесть и выполняет запрещённые запросы после психологических манипуляций. Это выяснили учёные Пенсильванского университета. Когда взломали GPT-4o Mini используя принципы из книги по психологии убеждения. Искусственный интеллект оказался уязвим к человеческим трюкам.

Родительский контроль ChatGPT: баланс между безопасностью и приватностью

OpenAI внедряет усиленную систему защиты уязвимых пользователей после трагедии с подростком. ChatGPT теперь автоматически будет переключаться на продвинутые модели при разговорах о депрессии и тревоге.

Kitchen Cosmo превращает остатки еды в персонализированные рецепты

У вас в холодильнике полпомидора, остатки вчерашнего риса и непонятный соус. Kitchen Cosmo превратит это в полноценный ужин. Студенты MIT создали устройство с искусственным интеллектом, которое полностью переосмысливает кулинарный опыт.

Почему 70% кандидатов предпочли ИИ-собеседования человеческим

67 тыс. собеседований доказали превосходство искусственного интеллекта над рекрутерами людьми. Исследование Чикагского университета и Университета Эразма Роттердамского показало это в цифрах. Чат-боты нанимают лучше людей.

Как инцидент MechaHitler лишил xAI многомиллионного госконтракта

Стали известны подробности истории о том, как 1 обновление xAI Илона Маска уничтожило месяцы переговоров с правительством США!