Post Thumbnail

Бессонница Альтмана: груз ответственности за сотни млн пользователей

В интервью Такеру Карлсону глава компании OpenAI Сэм Альтман поделился беспрецедентными откровениями о моральных дилеммах. С которыми сталкивается на посту руководителя 1 из самых влиятельных технологических проектов современности. “Я не сплю спокойно по ночам с момента запуска ChatGPT в 2022 году,” признался Альтман в беседе с Такером Карлсоном. Эта фраза отражает большой груз ответственности, который испытывает технологический визионер, чьи решения ежедневно влияют на сотни млн пользователей искусственного интеллекта по всему миру. Интересно, что наибольшее беспокойство у Альтмана вызывают не глобальные этические дилеммы. А “очень маленькие решения” относительно поведения модели, которые в конечном итоге могут иметь масштабные последствия. Эти решения касаются тонкой настройки этических параметров ChatGPT. Какие вопросы чат-бот должен игнорировать, а на какие отвечать, и как именно. Такие нюансы, по его словам, формируют моральный компас искусственного интеллекта. Определяя его влияние на пользователей и общество в целом.

Автор: AIvengo
5 лет я работаю с машинным обучением и искусственным интеллектом. И эта сфера не перестает меня удивлять, восхищать и интересовать.
Latest News
OpenAI обещает создать полноценного учёного на ИИ к 2028 году

OpenAI пообещала создать полноценного учёного на основе искусственного интеллекта к 2028 году. Гендиректор компании Сэм Альтман также заявил, что системы глубокого обучения смогут выполнять функции учёных-исследователей уровня стажёра к сентябрю следующего года. А уровень автономного полноценного исследователя на искусственном интеллекте может быть достигнут уже к 2028 году.

Рабочие места для молодых айтишников в Британии рухнули на 46%

Знаете, что происходит на рынке труда для молодых айтишников в Великобритании? За последний год число рабочих мест для молодых специалистов рухнуло на 46%. И прогнозируется падение ещё на 53%, сообщает The Register. Со ссылкой на статистику Института студенческого трудоустройства.

Павел Дуров представил Cocoon децентрализованную сеть для запуска ИИ

Глава Telegram Павел Дуров выступил в рамках конференции Blockchain Life в Дубае и представил там свой новый проект под названием Cocoon. И это попытка бросить вызов монополии больших корпораций на искусственный интеллект.

У моделей ИИ может развиться инстинкт самосохранения предупредили учёные

Компания Palisade Research, занимающаяся исследованиями в области безопасности искусственного интеллекта, заявила, что у моделей может развиться собственный инстинкт самосохранения. А некоторые продвинутые модели не поддаются отключению, а иногда даже саботируют механизмы отключения.

ИИ прошёл тест Тьюринга в музыке

Университет Минас-Жерайса в Бразилии провёл эксперимент. Участникам давали пары песен, в каждой из которых был 1 сгенерированный трек. Нужно было определить, какой именно. И результаты оказались неожиданными.