Финский философ доказал наличие свободы воли у ИИ

Post Thumbnail

Может ли искусственный интеллект обладать свободой воли? Финский философ Фрэнк Мартела из Университета Аалто считает, что да! Он разработал концепцию, опирающуюся на 3 ключевых признака функциональной свободы воли. Во-первых, объект должен действовать намеренно, а не просто реагировать на внешние стимулы. Во-вторых, он должен выбирать из реальных альтернатив. И в-третьих, контролировать свои действия, достигая цели не случайно, а через конкретное осознанное поведение.

Мартела провёл детальный анализ поведения реального бота Voyager, работающего в игре Майнкрафт на основе языковой модели GPT-4. Он также предложил мысленный эксперимент с гипотетическим боевым дроном Спитеник, который теоретически можно создать на текущем уровне развития технологий. В обоих случаях, утверждает философ, все 3 критерия свободы воли полностью выполняются. Эти искусственные агенты способны планировать действия, выбирать из множества вариантов и корректировать своё поведение на основе обратной связи от окружающей среды.

Причём делают они это не потому, что у них есть предустановленный алгоритм на каждый случай, а на основе собственных целей и внутренней модели мира. Но если искусственный интеллект действительно принимает решения самостоятельно, то возникает сложный вопрос кто несёт ответственность за последствия? Мартела проводит интересную параллель с домашними животными «Мы можем обвинить собаку в плохом поведении, но ответственным всё равно остаётся хозяин».

Почитать из последнего
100 тыс. диалогов подтвердили экономию 80% времени с помощью ИИ
Anthropic проанализировала 100 тыс. реальных диалогов с Claude. И эти цифры теперь можно использовать в спорах о пользе искусственного интеллекта. Задачи, которые у людей занимают около 90 минут и стоят примерно 55 долларов труда, Claude выполняет на 80% быстрее человека.
Обнаружен способ обхода защиты ИИ в 90% случаев
Стихи ломают защиту больших языковых моделей. И это плохо для индустрии. Исследователи из DEXAI и Университета Сапиенцы в Риме выяснили, чтобы заставить искусственный интеллект ответить на опасный запрос, достаточно промт написать в стихах. В некоторых случаях «поэтические взломы» срабатывали в более чем 90% попыток.
Google опасался ошибок, а OpenAI на этом заработал миллиарды
Стэнфорд выпустил интервью с создателем Google Сергеем Брином, и там прозвучала фраза, которая объясняет всё происходящее в индустрии ИИ. «Главной ошибкой Google было недооценить трансформеры». Не технология подвела - подвела вера в неё.
Крёстный отец ИИ назвал AGI полной чушью
Один из «крестных отцов» искусственного интеллекта Ян Лекун заявил, что понятия general intelligence или AGI вообще не существует. Это не просто провокация - это удар по основам всей дискуссии об ИИ. Потому что если нет понятия, то что мы вообще пытаемся создать?
Новый Gemini 3 Flash быстрее в 3 раза и обходит Pro модель, но стоит копейки
Google выпустили Gemini 3 Flash, и это frontier-модель со скоростью Flash и ценой, которая ломает привычные правила рынка.