Министерство США молча заменило доклад с фальшивыми цитатами ИИ
Доклад Министерства здравоохранения и социальных служб США о хронических детских заболеваниях оказался в центре научного скандала. Эксперты обнаружили, что в документе “Make Our Children Healthy Again Assessment” присутствуют фальсифицированные цитаты и несуществующие исследования.
Представьте: 7 цитируемых научных работ просто не существуют в реальности! Более того, некоторые учёные, упомянутые в докладе, заявили, что никогда не проводили приписываемых им исследований. Аналитики в New York Times предположили, что части доклада могли быть сгенерированы искусственным интеллектом, известным своими “галлюцинациями”. Когда алгоритм просто выдумывает “факты”, подходящие под контекст запроса.
Несмотря на то, что основные выводы доклада о связи ультра-обработанной пищи с диабетом, аутизмом и СДВГ многие эксперты считают обоснованными, сам факт использования фиктивных источников подрывает доверие к работе. Министерство уже молча заменило оригинальный документ исправленной версией на своём сайте. Но официально не признало использование искусственного интеллекта, назвав ошибки “незначительными”.
Это тревожный прецедент. Правительственные структуры могут неосознанно или осознанно распространять дезинформацию и заметить это становится всё труднее.
Автор: AIvengo
5 лет я работаю с машинным обучением и искусственным интеллектом. И эта сфера не перестает меня удивлять, восхищать и интересовать.
Корпоративное предательство в индустрии ИИИнженер по искусственному интеллекту Xuechen Li стал центром крупнейшего корпоративного скандала в индустрии искусственного интеллекта. Компания Илона Маска подала в суд на своего бывшего сотрудника. И настаивает, что инженер xAI украл секреты Grok для OpenAI. История развивалась довольно интересно. В начале лета Ли получил оффер от OpenAI. Принял предложение и сразу продал акции xAI на $7 млн. Классическая схема корпоративного предательства. Но остался работать в компании Илона Маска. Уже странно звучит.
Необычное сотрудничество конкурентов в тестировании безопасности ИИ2 главных конкурента в мире искусственного интеллекта впервые объединились для совместного тестирования безопасности. OpenAI и Anthropic открыли друг другу доступ к своим секретным моделям. В индустрии, где компании платят исследователям по $100 млн и борются за каждого пользователя, такое сотрудничество выглядит невероятным.
Почему Gemini достиг 50% от аудитории ChatGPT на мобильныхGoogle Gemini уже имеет половину аудитории ChatGPT на мобильных устройствах. Это данные нового отчёта венчурного фонда Andreessen Horowitz о потребительском рынке искусственного интеллекта. 2,5 года исследований показывают интересную картину.
Как Claude стал инструментом для взлома 17 организацийКомпания Anthropic выпустила аналитический отчёт по безопасности. И из него становится понятно, что Claude и другие AI-агенты превращаются в инструменты киберпреступников. В Anthropic назвали это новое направление вайб-хакингом. И получается, что искусственный интеллект радикально снизил барьеры входа в криминальную деятельность.