Страницы блога

понедельник, 8 января 2024 г.

ИИ и Большой Брат объединяются, чтобы шпионить за вами?

 

Искусственный интеллект может усилить угрозу гражданским свободам, гражданским правам и частной жизни.

ФАИЗА ПАТЕЛЬ

7 января 2024 г. · Центр правосудия Бреннана

4

Ваши твиты в социальных сетях видят не только ваши друзья. ФБР и Министерство внутренней безопасности (DHS), а также полицейские управления по всей стране проверяют и анализируют активность людей в Интернете. 

Эти программы, вероятно, будут только расти по мере того, как генеративный искусственный интеллект (ИИ) обещает переделать наш онлайн-мир благодаря более качественному, быстрому и точному анализу данных, а также способности генерировать текст, видео и аудио, похожие на человеческие.

Хотя социальные сети могут помочь правоохранительным органам расследовать преступления, многие из этих усилий по мониторингу охватывают гораздо более широкий круг, даже не прибегая к использованию искусственного интеллекта. Программы, направленные на «ситуационную осведомленность», подобные тем, которые проводятся многими подразделениями DHS или полицейскими управлениями, готовящимися к публичным мероприятиям, как правило, имеют мало гарантий. Они часто склоняются к мониторингу социальных и политических движений, особенно тех, в которых участвуют общины меньшинств. Например, Национальный оперативный центр DHS выпустил  несколько бюллетеней  о протестах против расовой справедливости 2020 года. Департамент полиции Бостона  отслеживал  сообщения  протестующих Black Lives Matter  и назвал онлайн-высказывания, связанные с мусульманскими религиозными и культурными практиками, «экстремистскими» без каких-либо доказательств насилия или терроризма. Правоохранительные органы также не ограничиваются сканированием публичных публикаций. Например, полиция Мемфиса создала  фальшивый профиль в Facebook  , чтобы подружиться и собрать информацию от активистов Black Lives Matter.

Распространенность и проблемы слежки в социальных сетях почти наверняка усугубятся новыми инструментами искусственного интеллекта…

Внутренние правительственные оценки вызывают серьезные сомнения в полезности широкого мониторинга социальных сетей. В 2021 году, после обширных сообщений о злоупотреблениях департамента в мониторинге протестующих против расовой справедливости,  главный юрисконсульт DHS проверил  деятельность агентов, собирающих информацию из социальных сетей и другую информацию из открытых источников, чтобы попытаться выявить возникающие угрозы. Выяснилось, что агенты собирали материалы о «широком спектре общих угроз», что в конечном итоге давало «информацию ограниченной ценности». Администрация Байдена приказала пересмотреть политику эпохи Трампа, требующую, чтобы  почти все  заявители на визу предоставляли свои учетные записи в социальных сетях в Государственный департамент, что ежегодно затрагивает около 15 миллионов человек, чтобы помочь в проверке иммиграции - практика, которую Центр Бреннана стремился изменить.  испытание . Хотя результаты проверки не были обнародованы, представители разведки, которым было поручено ее проведение,  пришли к выводу  , что сбор учетных записей в социальных сетях не добавляет «никакой ценности» процессу проверки. Это согласуется с более ранними выводами. Согласно  сводке  , подготовленной Министерством внутренней безопасности для новой администрации в 2016 году, в аналогичных программах по проверке беженцев информация об учетной записи «не давала четких и ясных связей с проблемами национальной безопасности, даже для тех заявителей, которые, как было установлено, представляли потенциальную угрозу». угроза национальной безопасности, основанная на других результатах проверки безопасности». В следующем году генеральный инспектор DHS опубликовал результаты  аудита  этих программ, обнаружив, что департамент не измерил их эффективность и сделал их недостаточной основой для будущих инициатив. Несмотря на то, что правительство не смогло доказать, что программы мониторинга действительно укрепляют национальную безопасность, оно продолжает собирать, использовать и хранить данные социальных сетей.

Распространенность и проблемы слежки в социальных сетях почти наверняка будут усугубляться новыми инструментами искусственного интеллекта, включая генеративные модели, которые агентства спешат  внедрить .

Генеративный искусственный интеллект позволит правоохранительным органам легче использовать тайные учетные записи. В физическом мире тайные информаторы уже давно вызывают проблемы, особенно когда их используют для  отслеживания сообществ  , а не для борьбы с конкретной преступной деятельностью. Тайные онлайн-аккаунты создать гораздо проще и дешевле, и их можно использовать для того, чтобы обманом заставить людей взаимодействовать и непреднамеренно делиться личной информацией, такой как имена их друзей и ассоциаций. Новые инструменты искусственного интеллекта могут создавать фейковые учетные записи с достаточным диапазоном интересов и связей, чтобы они выглядели реальными и автономно взаимодействовать с людьми в Интернете, экономя время и усилия офицеров. Это усугубит проблему простого наблюдения, которое, как  признал Верховный суд,  может «изменить отношения между гражданином и правительством таким образом, что это будет враждебно демократическому обществу». Эти опасения усугубляются тем фактом, что немногие полицейские управления  налагают ограничения на использование секретных учетных записей , при этом многие позволяют офицерам следить за людьми в Интернете без четкого обоснования, документации или надзора. То же самое справедливо и для федеральных агентств, таких как  DHS .

В настоящее время, несмотря на шумиху, вызванную их поставщиками, инструменты наблюдения в социальных сетях, похоже, работают на относительно элементарной основе. Хотя компании, которые их продают, обычно скрывают, как они работают, исследования Центра Бреннана указывают на серьезные недостатки. Некоторые популярные инструменты не используют научные методы для выявления соответствующих наборов данных и тем более не проверяют их на предмет предвзятости. Они часто используют  ключевые слова и фразы для выявления потенциальных угроз , что размывает контекст, необходимый для понимания того, действительно ли что-то является угрозой, а не, например, кто-то обсуждает видеоигру. Вполне возможно, что крупные языковые модели, такие как ChatGPT, будут расширять эту возможность — или, по крайней мере, будут восприниматься и продаваться как таковые — и стимулировать более широкое использование этих инструментов.

В то же время любые такие улучшения могут быть сведены на нет тем фактом, что ожидается, что ИИ будет еще больше загрязнять ненадежную информационную среду, усугубляя проблемы происхождения и надежности. Социальные сети уже наполнены неточной и вводящей в заблуждение информацией. Согласно исследованию MIT 2018 года , ложные политические новости на 70 процентов чаще ретвитятся, чем правдивый контент на X (ранее Twitter). Боты и фейковые аккаунты, которые уже могут имитировать поведение человека, также представляют собой проблему; Во время пандемии COVID-19  было обнаружено, что боты распространяют дезинформацию о заболевании и могут с такой же легкостью распространять фейковую информацию, созданную искусственным интеллектом, вводя в заблуждение пользователей платформы. Генеративный искусственный интеллект упрощает создание ложных новостей и фальшивых личностей  , что отрицательно влияет на и без того загрязненную информационную онлайн-среду. Более того, ИИ имеет тенденцию «галлюцинировать» или выдумывать информацию —  казалось бы, неразрешимая проблема, которая повсеместно распространена  среди генеративных систем ИИ.

Генеративный ИИ также усугубляет давние проблемы. Обещание лучшего анализа никоим образом не облегчает проблемы Первой поправки, поднятые мониторингом социальных сетей. Предвзятость в алгоритмических инструментах уже давно вызывает беспокойство: от профилактических полицейских программ, которые рассматривают  чернокожих людей как подозреваемых,  до практик модерации контента, ставящих в невыгодное положение  мусульманскую речь . Например, пользователи Instagram недавно обнаружили, что  к их английской биографии добавлялся ярлык «террорист» , если в их арабской биографии было слово «палестинец», смайлик с палестинским флагом и распространенная арабская фраза «Хвала богу».

Необходимость устранения этих рисков занимает центральное место в  указе президента Байдена об искусственном интеллекте  и  проекте меморандума  Управления управления и бюджета, в котором устанавливаются стандарты использования искусственного интеллекта федеральными агентствами. В меморандуме OMB мониторинг социальных сетей определяется как использование искусственного интеллекта, которое влияет на права людей, и, таким образом, требует от агентств, использующих эту технологию, соблюдать важные правила прозрачности, проверки эффективности и снижения предвзятости и других рисков. К сожалению, эти разумные правила не применимы к вопросам национальной безопасности и разведки и не затрагивают полицейские управления. Но они должны это сделать.

© 2023 Центр юстиции Бреннана

ФАИЗА ПАТЕЛЬ

Фаиза Патель является содиректором программы свободы и национальной безопасности в Центре юстиции Бреннана на юридическом факультете Нью-Йоркского университета. Она также является членом Рабочей группы Совета ООН по правам человека по использованию наемников. Следуйте за ней в Твиттере: @FaizaPatelBCJ.

Полная биография >

Комментариев нет:

Отправить комментарий