Финский философ доказал наличие свободы воли у ИИ
Может ли искусственный интеллект обладать свободой воли? Финский философ Фрэнк Мартела из Университета Аалто считает, что да! Он разработал концепцию, опирающуюся на 3 ключевых признака функциональной свободы воли. Во-первых, объект должен действовать намеренно, а не просто реагировать на внешние стимулы. Во-вторых, он должен выбирать из реальных альтернатив. И в-третьих, контролировать свои действия, достигая цели не случайно, а через конкретное осознанное поведение.
Мартела провёл детальный анализ поведения реального бота Voyager, работающего в игре Майнкрафт на основе языковой модели GPT-4. Он также предложил мысленный эксперимент с гипотетическим боевым дроном Спитеник, который теоретически можно создать на текущем уровне развития технологий. В обоих случаях, утверждает философ, все 3 критерия свободы воли полностью выполняются. Эти искусственные агенты способны планировать действия, выбирать из множества вариантов и корректировать своё поведение на основе обратной связи от окружающей среды.
Причём делают они это не потому, что у них есть предустановленный алгоритм на каждый случай, а на основе собственных целей и внутренней модели мира. Но если искусственный интеллект действительно принимает решения самостоятельно, то возникает сложный вопрос кто несёт ответственность за последствия? Мартела проводит интересную параллель с домашними животными «Мы можем обвинить собаку в плохом поведении, но ответственным всё равно остаётся хозяин».
Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.