Post Thumbnail

Суперкомпьютер xAI выбрасывает опасные вещества

Компания xAI Илона Маска планирует продолжить использование 15 газовых турбин для питания своего суперкомпьютера “Colossus” в Мемфисе, штат Теннесси, несмотря на серьезные экологические опасения. Согласно документам, полученным изданием The Commercial Appeal, компания подала заявку на разрешение на непрерывную эксплуатацию турбин с июня 2025 по июнь 2030 года в Департамент здравоохранения округа Шелби.

Ситуация вызывает тревогу экологов, поскольку 20-летние турбины выбрасывают опасные загрязняющие вещества, включая формальдегид, в количествах, превышающих установленный EPA годовой лимит в 10 тонн для одного источника. По данным из разрешения на эксплуатацию, каждая турбина выбрасывает 11,51 тонн опасных веществ в год, что существенно превышает допустимые нормы.

Особую обеспокоенность вызывает тот факт, что в пятимильной зоне от объекта проживает около 22 000 человек. По словам Эрика Хилта, представителя Southern Environmental Law Center, турбины уже работают с лета 2024 года без публичного уведомления или надзора, а поданные разрешения не учитывают эти выбросы.

“Это очередной пример того, как компания не проявляет прозрачности в отношениях с сообществом и местными властями”, — заявил Хилт в интервью The Commercial Appeal.

Департамент здравоохранения сообщил, что разрешения еще не одобрены, и “установленных сроков для их утверждения нет”. Эта ситуация поднимает важные вопросы о балансе между развитием технологий искусственного интеллекта и экологической безопасностью, а также о необходимости более строгого контроля за деятельностью технологических компаний.

Автор: AIvengo
5 лет я работаю с машинным обучением и искусственным интеллектом. И эта сфера не перестает меня удивлять, восхищать и интересовать.
Latest News
Главный экономист МВФ сравнил бум ИИ с пузырём доткомов

Главный экономист МВФ Пьер-Оливье Гуринша заявил, что мир уже прошёл половину пути до лопнувшего пузыря искусственного интеллекта и нового финансового кризиса.

Исследователи взломали 12 систем защиты ИИ

Знаете, что только что выяснили исследователи из OpenAI, Anthropic, Google DeepMind и Гарварда? Они попытались сломать популярные системы безопасности искусственного интеллекта и почти везде нашли обход. Проверяли 12 распространённых подходов к защите. От умных формулировок системного промпта до внешних фильтров, которые должны ловить опасные запросы.

У OpenAI есть 5 лет чтобы превратить $13 млрд в триллион

Знаете, в каком положении сейчас находится OpenAI? По сообщению Financial Times, у компании есть 5 лет, чтобы превратить 13 млрд долларов в триллион. И вот как это выглядит на практике.

Сэм Альтман обещает вернуть человечность в ChatGPT

Глава OpenAI Сэм Альтман сделал заявление после того, как прошли многочисленные оффлайн и онлайн протесты против отключения модели GPT-4о. А потом включение, но с диким маршрутизатором. Я рассказывал про это на прошлой неделе максимально подробно. Прямая цитата главы OpenAI.

ИИ оживает: почему сооснователь Anthropic боится своего творения

Сооснователь Anthropic Джек Кларк опубликовал эссе, от которого становится не по себе. Он написал про природу современного искусственного интеллекта, и его выводы звучат как предупреждение.