Автор: Отем Спредеманн, The Epoch Times,
На фоне глобального стремления малых и крупных компаний внедрить искусственный интеллект (ИИ) эксперты предупреждают об усилении опасений по поводу безопасности данных.

По данным отчета McKinsey & Company, опубликованного в мае, по мере развития возможностей искусственного интеллекта эксперты по кибербезопасности и конфиденциальности предупреждают, что те же модели, которые способны обнаруживать мошенничество, защищать сети или анонимизировать записи, также могут устанавливать личности, восстанавливать удаленные данные и раскрывать конфиденциальную информацию.
В отчёте Accenture об устойчивости к кибербезопасности за 2025 год говорится, что 90% компаний не обладают достаточной модернизацией для защиты от угроз, связанных с искусственным интеллектом . В отчёте представлены мнения 2286 руководителей служб безопасности и технологий из 24 отраслей в 17 странах о состоянии готовности к кибератакам с использованием искусственного интеллекта.
С начала года Центр по борьбе с кражей персональных данных подтвердил 1732 утечки данных. Центр также отметил, что «продолжающийся рост фишинговых атак с использованием искусственного интеллекта» становится всё более изощрённым и сложным для обнаружения. Среди отраслей, наиболее подверженных этим утечкам данных, — финансовые услуги, здравоохранение и профессиональные услуги.
«Это предсказуемое следствие технологии, которая внедряется с головокружительной скоростью, часто опережая организационную дисциплину, нормативные требования и бдительность пользователей. Фундаментальная структура большинства систем генеративного ИИ делает такой результат практически неизбежным», — рассказал Дэни Страхан, старший юрист по вопросам конфиденциальности в VeraSafe, изданию The Epoch Times.
Поскольку системы ИИ предназначены для усвоения огромного объема информации для обучения, это создает уязвимости.
«Когда сотрудники, часто из лучших побуждений, предоставляют системам искусственного интеллекта конфиденциальные бизнес-данные — будь то стратегические документы, конфиденциальную информацию о клиентах или внутренние финансовые записи, — эта информация попадает в систему, над которой компания практически не имеет контроля», — сказал Страхан.
Это особенно актуально, если используются потребительские версии этих инструментов ИИ и не включены защитные меры.
«Это очень похоже на то, как если бы вы вывешивали свои конфиденциальные файлы на публичной доске объявлений и надеялись, что никто не сделает копию», — сказал Страхан.
Приложения Grok, DeepSeek и ChatGPT отображаются на экране смартфона в Лондоне 20 февраля 2025 года. С начала года Центр по борьбе с кражей персональных данных подтвердил 1732 утечки данных. Джастин Таллис/AFP через Getty Images
Многогранная угроза
Существуют разные способы, которыми персональные данные могут попасть в чужие руки или стать доступны для анализа с помощью инструментов искусственного интеллекта. Хакерские атаки и кража данных хорошо известны, но другой способ — это то, что исследователи называют «утечкой конфиденциальной информации».
Публично доступные большие языковые модели (LLM) — это распространенный способ утечки информации или ее утечки.
По данным Obsidian Security, в этом году исследователь безопасности обнаружил, что на Archive.org в открытом доступе находятся 143 000 пользовательских запросов и разговоров из популярных моделей LLM, включая ChatGPT, Grok, Claude и Copilot.
«Это открытие последовало сразу за недавними сообщениями о том, что запросы ChatGPT индексируются поисковыми системами, такими как Google. Подобные инциденты продолжают вызывать всё большую обеспокоенность по поводу утечки данных и непреднамеренного раскрытия конфиденциальной информации через платформы искусственного интеллекта», — говорится в отчёте Obsidian.
«Наибольшим риском является непреднамеренное раскрытие конфиденциальных данных при взаимодействии членов команды с общедоступными инструментами ИИ», — сказал Страхан.
Он добавил, что риску подвергаются не только персональные данные, но и организационная информация, учитывая большое количество людей, использующих степени магистра права для выполнения рабочих задач.
«При доступе к мультимодальному ИИ риск распространяется на документы, электронные таблицы, стенограммы и аудиозаписи совещаний, а также видеоконтент. Эти данные, после их распространения, могут быть использованы для обучения будущих моделей и потенциально могут быть использованы в ответах на запросы других пользователей, включая конкурентов», — сказал Страхан.
Но утечки данных происходят не только из-за программ магистратуры права. Чат-боты на основе искусственного интеллекта могут получить доступ к информации практически из любого аспекта цифрового мира.
«В третьем квартале я зафиксировал 47 случаев утечки данных на игровых платформах, подавляющее большинство из которых было связано с чат-ботами на основе искусственного интеллекта, имеющими неограниченный доступ к бэкэнду», — рассказал изданию The Epoch Times Майкл Педротти, соучредитель компании GhostCap, предоставляющей услуги хостинга игровых серверов.
Генеральный директор OpenAI Сэм Альтман выступает на мероприятии OpenAI DevDay в Сан-Франциско 6 ноября 2023 года. В этом году исследователь безопасности обнаружил, что 143 000 пользовательских запросов и разговоров из популярных моделей LLM, включая ChatGPT, Grok, Claude и Copilot, были доступны для общественности на Archive.org. Джастин Салливан/Getty Images
Педротти заявил, что растущее давление в связи с необходимостью внедрения систем искусственного интеллекта приводит к «катастрофам» в сфере безопасности.
«Организации напрямую связывают ИИ с базами данных клиентов, не имея адекватных уровней изоляции. Руководители, настаивающие на внедрении ИИ за несколько недель, халтурят», — сказал он.
«Результатом являются системы искусственного интеллекта, имеющие доступ ко всему, включая платежные карты, личные сообщения, без политик контроля или регистрации».
Педротти много лет работал с инфраструктурой кибербезопасности. Он сказал, что наиболее опасная «слепая зона» конфиденциальности данных — это то, что он назвал «внедрением векторов». Это представления данных, таких как слова, изображения или аудио, преобразованные в числовые «векторы», которые позволяют моделям ИИ обрабатывать и понимать сложную информацию, располагая схожие точки данных ближе друг к другу.
«Эти математические кодировки текста кажутся анонимными, но персональные данные полностью поддаются восстановлению», — сказал Педротти.
Педротти заявил, что на данный момент невозможно удалять записи в моделях ИИ, как в традиционных базах данных, поскольку информация внедрена навсегда.
«Мне даже удалось обнаружить конфиденциальные обсуждения сотрудников с корпоративными помощниками на базе искусственного интеллекта спустя несколько месяцев после того, как они удалили исходные сообщения в Slack. Эта информация включена в фундаментальную структуру искусственного интеллекта», — сказал он.
«Потенциальные преимущества ИИ, особенно в плане прибыли, побуждают организации стремиться как можно скорее присоединиться к ним», — рассказал Паркер Пирсон, директор по стратегии компании Donoma Software, изданию The Epoch Times.
Пирсон отметила, что наблюдала подобную тенденцию и в случае других технологических бумов.
«Общим знаменателем каждой из этих «технологических лихорадок» является то, что важные детали, обычно имеющие прямое влияние на безопасность, в тот или иной момент упускаются из виду или игнорируются», — сказала она.
Мужчина за ноутбуком в Вашингтоне, 18 марта 2025 года. Недавний опрос 1000 взрослых американцев показал, что 84% интернет-пользователей используют «небезопасные» пароли, например, используют личную информацию. Мадалина Василиу/The Epoch Times
Принятие мер
Пирсон считает, что ситуация ухудшится, если не будут приняты более активные меры.
По ее словам, на индивидуальном уровне людям необходимо обучаться передовым методам кибербезопасности: некоторые знают, что такое надежные пароли и многофакторная аутентификация, но, как показывают данные, большинство интернет-пользователей не соблюдают цифровые правила.
Недавний опрос, проведённый компанией All About Cookies, специализирующейся на веб-безопасности, среди 1000 взрослых американцев, показал, что 84% интернет-пользователей используют «небезопасные» пароли, например, используют персональные данные. В той же группе 50% респондентов сообщили о повторном использовании паролей, а 59% заявили, что делятся как минимум одним паролем от учётной записи с другими, например, на стриминговом сервисе или банковском счёте.
Пирсон заявил, что пора перестать верить, что компании будут соблюдать свои заявления о конфиденциальности данных.
«Начните задавать вопросы, прежде чем автоматически передавать персональные данные. Начните добиваться ответственности», — сказала она.
«Необходимы последствия, выходящие за рамки 12 месяцев мониторинга личности, предоставляемого организациями, чьи данные были взломаны. Честно говоря, сам факт того, что это воспринимается как мера по исправлению ситуации, оскорбителен».
По мнению Пирсона, организации, которые не обеспечивают доверие к данным, должны платить более высокий штраф, поскольку последствия для их клиентов, скорее всего, будут иметь необратимые последствия.
Большинство экспертов по кибербезопасности согласны, что разумные индивидуальные действия важны, но Страхан отметил, что когда речь идет о конфиденциальности данных ИИ, большая часть ответственности лежит на бизнесе.
«Бремя снижения рисков, связанных с ИИ, ложится на организации. Им необходимо внедрить программы повышения осведомленности персонала, которые научат сотрудников воспринимать каждое сообщение как электронное письмо на первой полосе ежедневной газеты», — сказал он.
Страхан считает, что для снижения рисков компаниям следует внедрять корпоративные инструменты ИИ с отключенным обучением, ограниченным хранением данных и строгим контролем доступа. Он отметил, что ИИ «взрывает» поверхность риска управления конфиденциальностью, которая будет становиться всё сложнее по мере развития технологий.
Посетители посещают центр обработки данных ИИ в SK Networks во время Всемирного мобильного конгресса, крупнейшей в мире выставки мобильных технологий, в Барселоне, 3 марта 2025 года. США и Европейский союз начали уделять внимание безопасности данных в условиях постепенного развития систем ИИ. Manaure Quinter/AFP via Getty Images
Законодательство также отстает от все более совершенных систем искусственного интеллекта, которые в настоящее время эксплуатируют «серые зоны» конфиденциальности.
«Компании, занимающиеся ИИ, пользуются огромной лазейкой в законодательстве о конфиденциальности. По их словам, обучение моделей не является хранилищем данных, а значит, их вообще не нужно удалять», — сказал Педротти.
Он следил за случаями, когда компании переносили процессы обучения за границу, в частности, чтобы избежать соблюдения нормативных требований и предоставлять услуги тем же пользователям.
«Использование кросс-юрисдикционных моделей создает лазейки», — сказал он.
«Действующие законы фокусируются на аспекте сбора данных, но не объясняют, как ИИ работает с такими данными и постоянно включает их в алгоритмы».
Пирсон заявил, что к числу «пробелов» в текущем законодательстве об ИИ, уязвимых для эксплуатации, относятся трансграничные потоки информации, данные обучения, веб-скрапинг, алгоритмическое принятие решений и обмен данными со сторонними организациями.
Страхан выразил те же опасения. «Задержки в регулировании порождают опасную двусмысленность в вопросах ответственности… Это создаёт серые зоны, которыми могут воспользоваться злоумышленники, особенно в трансграничных ситуациях, где пробелы в юрисдикциях усугубляют проблему», — сказал он.
Соединенные Штаты и Европейский союз начали уделять внимание безопасности данных в условиях постепенного развития систем искусственного интеллекта.
В Плане действий Белого дома в области искусственного интеллекта до 2025 года подчеркивается необходимость усиления кибербезопасности критически важной инфраструктуры. В докладе отмечается, что системы искусственного интеллекта уязвимы к таким вредоносным воздействиям, как искажение данных и атаки на конфиденциальность.
Аналогичную позицию заняли и официальные лица ЕС, указав , что отсутствие надлежащего уровня безопасности LLM может привести к утечкам конфиденциальной или частной информации, используемой для обучения моделей ИИ.




Комментариев нет:
Отправить комментарий