Ученые предупреждают: зависимость от ИИ снижает когнитивные способности

Post Thumbnail

Новое исследование, проведенное учеными Microsoft и Университета Карнеги-Меллон, выявило тревожную тенденцию: активное использование инструментов искусственного интеллекта может приводить к деградации навыков критического мышления у пользователей.

В исследовании приняли участие 319 работников интеллектуального труда, чья деятельность связана с обработкой данных и информации. Участники предоставляли детальные отчеты об использовании генеративных ИИ-инструментов на рабочем месте, включая характер выполняемых задач, способы применения ИИ, уровень доверия к результатам работы ИИ и самооценку собственных способностей выполнить те же задачи без технологической поддержки.

Исследование выявило четкую закономерность: чем выше была уверенность работника в способностях ИИ выполнить задачу, тем чаще наблюдалось снижение критического анализа результатов. Особенно ярко эта тенденция проявлялась при выполнении задач с низким уровнем ответственности, где пользователи демонстрировали минимальную критическую оценку результатов работы ИИ.

Примечательно, что при низком уровне доверия к возможностям ИИ пользователи активнее задействовали навыки критического мышления, что приводило к более высокой способности оценивать и улучшать результаты работы искусственного интеллекта.

Исследование также обнаружило, что использование генеративных ИИ-инструментов приводит к снижению разнообразия результатов при выполнении идентичных задач по сравнению с работой без ИИ. Это объясняется ограничениями, связанными с обучающими данными, на основе которых работают ИИ-системы. Исследователи интерпретируют эту гомогенизацию результатов как признак «деградации критического мышления» у работников.

Ученые предупреждают, что долгосрочная зависимость от ИИ-инструментов может привести к существенному снижению способности к самостоятельному решению проблем. Эта тенденция представляет особую озабоченность в контексте растущей интеграции ИИ-технологий в рабочие процессы и повседневную жизнь.

Результаты исследования поднимают важные вопросы о необходимости разработки стратегий, обеспечивающих баланс между использованием преимуществ ИИ и сохранением критически важных когнитивных навыков человека.

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.