Книгу о манипуляции реальностью написали с помощью ChatGPT и Claude

Post Thumbnail

Интересная книга под названием «Гипнократия: Трамп, Маск и новая архитектура реальности» оказалась с изюминкой. В книге автор вводит понятие «гипнократия». Это такая система, где правду не запрещают, но её просто невозможно найти в огромном потоке информации. Её автором указан китайский философ Цзяньвэй Сюнь и он достаточно жестко критикует Дональда Трампа и Илона Маска. За то, что они создают «параллельные реальности» с помощью цифровых технологий.

Что самое интересное — выяснилось, что никакого Цзяньвэя Сюня на самом деле нет! Журналисты раскопали, что его образ и саму книгу создал итальянский философ Андреа Коламедичи. В оригинальном издании он был указан просто как переводчик. Коламедичи объяснил, что выбрал образ китайского философа, живущего в Берлине, как символ соединения восточного и западного мышления. Также это метафора разных реальностей, которые создаёт искусственный интеллект. Уровень метаиронии, от которого Оруэлл перевернулся бы в гробу, а потом послал рукопись издателю.

А для написания книги Коламедичи использовал чат-боты ChatGPT и Claude. Но он применял их нестандартно — по методу «антагонистического взаимодействия». Что это значит? Он просил искусственный интеллект придумывать идеи, а потом тот же искусственный интеллект должен был критиковать эти идеи с разных точек зрения. Так Коламедичи получал разностороннее представление о проблеме. Этот же подход философ использует когда преподаёт студентам в Европейском институте дизайна. Он учит их не воспринимать искусственный интеллект как волшебную палочку, которая даёт готовые ответы. А использовать его как инструмент для развития собственного мышления.

«Искусственный интеллект — это инструмент, которым мы должны научиться пользоваться. Потому что, если мы будем использовать его неправильно, относиться к нему как к оракулу, прося его дать ответ на вопросы о смысле собственной жизни, то мы потеряем способность думать», — говорит сам Коламедичи.

Получается забавная штука — книга о манипуляциях информацией сама оказалась таким манипулятивным экспериментом. Как если бы кто-то боролся с фейковыми новостями путем создания ещё более изощренных фейковых новостей и называл это «образовательным экспериментом».

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.