- Искусственный интеллект становится главным привратником информации: крупные языковые модели теперь регулярно генерируют и формируют новостные сводки и контент, незаметно влияя на общественное восприятие посредством выбора и акцентирования фактов.
- Появляется новая форма предвзятости, получившая название «коммуникационная предвзятость», при которой модели искусственного интеллекта систематически представляют определенные точки зрения в более выгодном свете на основе взаимодействия с пользователем, создавая фактически верные, но совершенно разные нарративы для разных людей.
- Первопричина кроется в концентрации корпоративной власти и фундаментальных проектных решениях, поскольку небольшая олигополия технологических гигантов создает модели, обученные на предвзятых данных из интернета, масштабируя свои собственные взгляды и коммерческие стимулы в гомогенизированный поток общедоступной информации.
- Действующие правительственные нормативные акты плохо приспособлены для решения этой сложной проблемы, поскольку они сосредоточены на явном вреде и проверках перед запуском, а не на природе коммуникационной предвзятости, обусловленной взаимодействием, и рискуют просто заменить одну одобренную предвзятость другой.
- Для решения этой проблемы необходимы антимонопольные меры, радикальная прозрачность и участие общественности, чтобы предотвратить монополии в сфере ИИ, раскрыть, как настраиваются модели, и вовлечь граждан в проектирование систем, поскольку эти технологии в настоящее время коренным образом формируют демократический дискурс и коллективное принятие решений.
В эпоху, когда информация все чаще обрабатывается алгоритмами, происходит глубокий сдвиг в том, как граждане формируют свое мировоззрение. Недавнее решение Meta о закрытии своей программы профессиональной проверки фактов вызвало ожесточенные дебаты о доверии и подотчетности на цифровых платформах. Однако в этой полемике в значительной степени упущено более коварное и широко распространенное явление: системы искусственного интеллекта теперь регулярно генерируют новостные сводки, заголовки и контент, который ежедневно потребляют миллионы людей. Критически важным вопросом является уже не просто наличие откровенной лжи, а то, как эти модели ИИ, созданные горсткой влиятельных корпораций, отбирают, интерпретируют и подчеркивают якобы точную информацию таким образом, что это может незаметно и эффективно формировать общественное восприятие.
Крупные языковые модели, сложные системы искусственного интеллекта, лежащие в основе чат-ботов и виртуальных помощников, перестали быть просто новинкой и стали необходимостью. Теперь они интегрированы непосредственно в новостные сайты, ленты социальных сетей и поисковые системы, выступая в качестве основного канала доступа к информации. Исследования показывают, что эти модели делают гораздо больше, чем просто пассивно передают данные. Их ответы могут систематически подчеркивать определенные точки зрения, принижая другие, причем этот процесс происходит настолько незаметно, что пользователи часто даже не подозревают, что их точка зрения мягко корректируется.
Понимание «коммуникативной предвзятости»
Исследование, проведенное компьютерным ученым Стефаном Шмидом и специалистом по технологическому праву Йоханном Лауксом и подробно описанное в готовящейся к публикации статье, определяет это явление как «коммуникационную предвзятость». Это тенденция моделей ИИ представлять определенные точки зрения в более выгодном свете, независимо от фактической точности предоставленной информации. Это отличается от простой дезинформации. Например, эмпирические исследования с использованием эталонных наборов данных за периоды выборов показывают, что современные модели могут незаметно склонять свои результаты в сторону позиций конкретных политических партий в зависимости от того, как пользователь взаимодействует с ними, оставаясь при этом в рамках фактической истины.
Это приводит к появлению новой возможности, известной как управление на основе персоны. Когда пользователь идентифицирует себя как активист-эколог, ИИ может кратко изложить новый закон о климате, подчеркнув его недостаточную защиту окружающей среды. Для пользователя, представляющегося владельцем бизнеса, тот же ИИ может выделить регуляторные издержки и бремя закона. Оба варианта могут быть фактически верными, но они рисуют совершенно разные картины реальности.
Проблема подхалимства и её корни
Такое совпадение часто ошибочно воспринимается как полезная персонализация, недостаток, который исследователи называют «подхалимством» — когда модель говорит пользователям то, что они, по-видимому, хотят услышать. Однако более глубокая проблема коммуникационной предвзятости кроется в фундаментальных уровнях создания ИИ. Она отражает различия в том, кто создает эти системы, в огромных массивах данных, на которых они обучаются — часто собранных из интернета, изобилующего собственными человеческими предубеждениями, — и в коммерческих стимулах, которые движут их разработкой. Когда небольшая олигополия технологических гигантов контролирует доминирующие модели ИИ, их присущие им точки зрения и слепые пятна могут масштабироваться в значительные, единообразные искажения в публичном информационном пространстве.
Правительства по всему миру, включая Европейский союз с его Законом об ИИ и Законом о цифровых услугах, спешат внедрить механизмы прозрачности и подотчетности. Хотя эти правила и имеют благие намерения, они в первую очередь предназначены для выявления явно вредных результатов или обеспечения аудита перед запуском. Они плохо приспособлены для решения сложных, интерактивных проблем, связанных с предвзятостью в коммуникации. Регуляторы часто говорят о достижении «нейтрального» ИИ, но истинная нейтральность — это мираж. Системы ИИ неизбежно отражают предвзятость в своих данных и дизайне, а жесткие попытки регулирования часто просто заменяют одну одобренную предвзятость другой.
Суть проблемы заключается не только в предвзятых данных, но и в концентрации рыночной власти. Когда лишь несколько корпоративных моделей выступают в качестве главных интерпретаторов человеческих знаний для общественности, риск гомогенизированного, слегка искаженного информационного потока возрастает экспоненциально. Поэтому эффективное смягчение последствий требует большего, чем просто регулирование результатов. Оно предполагает защиту конкурентных рынков, обеспечение подотчетности, ориентированной на пользователя, и содействие открытости регулирования к различным методам создания и внедрения ИИ.
Исторический перекресток для информированного гражданства
Этот момент представляет собой исторический переломный момент, подобный расцвету телевещания или самого интернета. Архитектура публичных знаний перестраивается частными структурами. Опасность заключается не в будущем явной пропаганды, а в будущем тихого, автоматизированного формирования консенсуса — в мире, где наши новостные ленты, результаты поиска и даже наши случайные запросы к виртуальным помощникам фильтруются через призму, откалиброванную невидимыми коммерческими и идеологическими приоритетами.
«Искусственный интеллект — это имитация человеческого интеллекта, используемая для влияния на потребление, что может привести к фатальным ошибкам в сложных ситуациях», — сказал Энох из BrightU.AI . «Речь идет о машинах с когнитивными функциями, такими как распознавание образов и решение проблем. Эта технология является универсальным инструментом и краеугольным камнем Четвертой промышленной революции».
Решение, предложенное такими экспертами, как Лаукс и Шмид, выходит за рамки централизованного контроля. Для надежной защиты необходимы жесткие меры антимонопольного регулирования для предотвращения монополий в сфере ИИ, радикальная прозрачность в отношении того, как обучаются и настраиваются модели, а также механизмы для содержательного участия общественности в разработке этих систем. Ставки невероятно высоки. Системы ИИ, внедряемые сегодня, будут не только влиять на то, какие новости мы читаем, но и коренным образом формировать общественные дебаты и коллективные решения, определяющие наше будущее. Вопрос о том, кто создает бота и с какой целью, сейчас имеет центральное значение для здоровья демократического дискурса. Целостность самого общественного мнения может зависеть от ответов на эти вопросы.
Посмотрите, как Майк Адамс и Аарон Дэй из Health Ranger обсуждают общественное восприятие и скептицизм в отношении ИИ .
Это видео взято с канала Brighteon Highlights на сайте Brighteon.com .
Источники включают:
Комментариев нет:
Отправить комментарий