Японцы извиняются перед роботами: неожиданные результаты ученых

Post Thumbnail

Совместное исследование ученых из Мюнхенского университета Людвига-Максимилиана (LMU) и Токийского университета Васэда выявило поразительные культурные различия в отношении к искусственному интеллекту и роботам между жителями Японии и западных стран.

В ходе экспериментов, основанных на теории игр, участники должны были выбирать между кооперативным и эгоистичным поведением при взаимодействии как с людьми, так и с машинами. Результаты показали существенный разрыв в подходах: в то время как европейцы и американцы склонны относиться к ИИ и роботам как к бездушным инструментам, которые можно использовать в своих интересах, японцы демонстрируют одинаково уважительное отношение как к людям, так и к машинам.

Исследование выявило яркие примеры этих различий в повседневной жизни. Если на Западе водители без колебаний подрезают беспилотные автомобили или манипулируют алгоритмами в своих интересах, то японцы испытывают моральный дискомфорт даже при мысли о несправедливом обращении с машинами.

Ученые связывают это с глубокими культурными особенностями. В западном обществе чувство моральной ответственности традиционно ограничивается взаимодействием между людьми, а технологии воспринимаются исключительно как инструменты. В Японии, напротив, исторически сложилось восприятие технологий как неотъемлемой части общественной структуры, где роботы и ИИ наделяются определенным социальным статусом.

Эти культурные различия могут иметь далеко идущие последствия для развития робототехники и искусственного интеллекта. Исследователи прогнозируют, что именно Япония может стать первой страной, где автономные транспортные средства и ИИ-ассистенты будут полностью интегрированы в общественную жизнь и приняты как равноправные участники социальных взаимодействий.

В то же время в западных странах процесс автоматизации может столкнуться с определенным сопротивлением из-за культурных барьеров и устоявшегося утилитарного отношения к технологиям. Это различие в восприятии может существенно повлиять на скорость и характер внедрения новых технологий в разных регионах мира.

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.