суббота, 5 августа 2023 г.

Мошенничество с дипфейками выросло более чем на 1000%, инсайдеры говорят, что это только начало

 Автор Отем Шпредеманн через The Epoch Times (выделено нами),

Поскольку грань между фактом и вымыслом становится все труднее различить, онлайн-преступникам требуется всего два часа, чтобы создать реалистичный компьютерный «дипфейк», способный разрушить чью-то жизнь.

Всплеск популярности гиперреалистичных фотографий, аудио и видео, созданных с помощью искусственного интеллекта (ИИ), широко известных как дипфейки, стал интернет-сенсацией.

Это также дает киберзлодеям преимущество в криминальном мире.

В период с 2022 по первый квартал этого года использование дипфейков в мошенничестве увеличилось на 1200 % только в Соединенных Штатах.

Хотя это не только американская проблема.

В том же анализе дипфейки, используемые в мошеннических целях, получили широкое распространение в Канаде, Германии и Великобритании. Согласно исследованию, на Соединенные Штаты приходится 4,3 процента мировых случаев мошенничества с дипфейками.

Между тем эксперты по искусственному интеллекту и следователи по киберпреступлениям говорят, что мы находимся лишь на вершине айсберга. Кроличья нора потенциального мошенничества с дипфейками продолжает расти.

«Я считаю, что главным стимулом для киберпреступников для совершения киберпреступлений являются правоохранительные органы и их неспособность идти в ногу со временем», — сказал Майкл Робертс The Epoch Times.

Г-н Робертс является профессиональным следователем и основателем компании Rexxfield,  которая помогает жертвам интернет-атак.

Он также основал PICDO, организацию по борьбе с киберпреступностью, и руководил обучением по борьбе с хакерскими атаками для отделений вооруженных сил США и Австралии, а также НАТО.

Г-н Робертс сказал, что правовые системы в западном мире «безнадежно перегружены» делами о онлайн-мошенничестве, многие из которых включают дипфейковые атаки. Более того, дела, которые расследуются без привлечения частной фирмы, тщательно отбираются.

« И даже тогда оно [дело] не раскрывается », — сказал он.

Согласно отчету HSRC, рынок обнаружения дипфейков в 2020 году оценивался в 3,86 миллиарда долларов, и ожидается, что до 2026 года он будет расти на 42 процента ежегодно .

Ловкость рук

Представьте, что вам звонит любимый человек и со слезами на глазах заявляет, что его похитили. Естественно, похитителям нужны деньги, и голос члена вашей семьи продолжает давать инструкции о том, как доставить выкуп.

Вы можете быть убеждены, что это голос вашего возлюбленного на другом конце провода, но есть шанс, что это не так.

Мошенничество с дипфейками или «клонированием голоса» в этом году распространилось по Соединенным Штатам со скоростью лесного пожара, ослепляя сострадательных, неподготовленных людей во многих штатах.

Но это не останавливаться на достигнутом. Дипфейковые атаки могут проявляться во многих формах. Эти хитрые мошеннические схемы также могут появляться в виде видеочатов с кем-то, кого вы знаете.

Они могут выглядеть как сообщение в социальных сетях давнего коллеги, обсуждающего, как инвестиции в криптовалюту позволили им купить красивый новый дом, на который они взволнованно указывают на фотографии.

« У нас много мошенничества с криптовалютой », — сказал г-н Робертс.

Дипфейки также используются для шантажа. Обычно это включает создание сносного видео или фото жертвы в непристойной или компрометирующей ситуации.

Затем злоумышленники требуют выкуп, чтобы не распространять подделку среди коллег, начальника, семьи и друзей жертвы.

Повышение безопасности в Интернете может помочь предотвратить мошенничество или обезопасить вас после утечки данных. (Шаттерсток)

Каждый из этих примеров уже происходит.

Но для создания этих реалистичных подделок преступникам нужен доступ к таким материалам, как фотографии, аудио и видео. К сожалению, эти вещи не трудно получить.

« Если кто-то получает доступ к вашим личным фотографиям в вашем iCloud, это дает всю выборку, все технологии… для создания гиперреалистичных подделок », — сказал г-н Робертс.

Профили в социальных сетях — настоящая сокровищница для преступников, стремящихся создать эти продукты.

Восстановление потерянных активов и репутации жертвы может быть мрачным. Робертс отметил, что судебные процессы против киберпреступников — это тяжелая битва. «Это долго, трудно, затянуто, эмоционально и финансово утомительно».

Другие инсайдеры индустрии искусственного интеллекта говорят, что проблема заключается не только в качестве подделок, но и в их количестве.

«Рано или поздно люди смогут генерировать любую комбинацию пикселей любого типа контента. И вам решать, как его фильтровать», — сказал Алан Икоев The Epoch Times.

Г-н Икоев является генеральным директором Fame Flow, которая создает лицензированную рекламу знаменитостей и влиятельных лиц.

Как пионер авторизованного ИИ-контента с участием знаменитостей, он слишком хорошо знаком с работой своих гнусных коллег.

Но чтобы противостоять этим все более изощренным мошенничествам, люди должны с подозрением относиться ко всему, что они видят в Интернете. «Если они не задают вопросов, то их легко убедить», — сказал Икоев.

Разобраться, что реально, а что подделка в Интернете, уже сложно. Согласно опросу Ipsos, в котором приняли участие более 25 000 участников в 25 странах, 86% интернет-пользователей признались , что были обмануты фейковыми новостями.

Это усугубляется недавним исследованием кибербезопасности, которое показало, что почти половина всего интернет-трафика в настоящее время генерируется ботами.

Но это не все плохие новости. Г-н Робертс утверждает, что преступники не успевают за тем, как быстро развиваются технологии, которые в настоящее время опережают «плохих актеров».

Тем не менее, бдительность и наличие плана необходимы для отражения или противодействия дипфейковым атакам.

Ходы и встречные ходы

Быстрое развитие технологий мошенничества почти вызывает ностальгию по тем дням, когда интернет-мошенничество было просто электронным письмом от самопровозглашенного принца из чужой страны, которому нужна была помощь в переводе денег.

ИИ дал киберпреступникам лучшие инструменты, но его также можно использовать против них.

« Разработка передовых инструментов обнаружения дипфейков с использованием алгоритмов, управляемых ИИ, имеет решающее значение для борьбы с этой угрозой . Совместные усилия разработчиков ИИ, исследователей и технологических компаний необходимы для создания надежных мер безопасности и повышения осведомленности», — Никита Щербина, генеральный директор AIScreen . рассказал Великая Эпоха.

Г-н Щербина сказал, что предприятия могут защитить себя, удвоив ставку на технологии. По сути, борьба с цифровым огнем с огнем.

«Внедрение передовых систем аутентификации на основе ИИ, включая распознавание голоса и лица с многофакторной аутентификацией. Непрерывный мониторинг и анализ коммуникационных шаблонов с использованием алгоритмов ИИ также может помочь обнаружить и предотвратить мошеннические действия», — сказал он.

Но для частных лиц разрушить или предотвратить мошенничество с дипфейками проще.

Некоторые телефонные мошенники заявляют, что принадлежат финансовой организации, и просят вас обновить информацию, но не делайте этого! Это может быть фишинговая атака, направленная на кражу вашей личной информации. (BestForBest/Shutterstock)

В случае подозрения на атаку голосового клона г-н Робертс сказал: «Первое, что вы делаете, это говорите: «Дорогая, я сейчас тебе перезвоню».

Он отметил, что мошенники придумают отговорку, почему нельзя перезвонить, чтобы подтвердить личность. Еще один способ сорвать преступников, использующих клонированный звук для инсценировки похищения, — задавать звонящему вопросы, которые не являются общедоступными.

«Поговорите со своей семьей до того, как это действительно произойдет, чтобы они поняли, что вы делаете», — добавил г-н Робертс.

Он подчеркнул важность отказа от использования отдельных адресов электронной почты с полными именами или номерами, соответствующими дате рождения пользователя.

Кроме того, человек никогда не должен повторно использовать пароль для входа. Г-н Робертс отметил, что первое, что делают хакеры, когда они перехватывают пароль, — это пытаются войти на все возможные сайты, чтобы увидеть, где еще он работает.

Это включает в себя банковские счета, облачное хранилище, социальные сети и многое другое.

Но в то время как дипфейки подняли планку для онлайн-мошенников, методы их отслеживания не изменились.

«Процесс не меняется. ИИ — это просто контент… но хлебные крошки, оставленные преступниками, всегда одни и те же», — сказал г-н Икоев.

Отслеживание мошенников может быть хорошо налажено, но нет четкого пути для жертв, чтобы вернуть потерянные деньги.

Согласно одному анализу, финансовые аферы с дипфейками могут варьироваться от 243 000 до 35 миллионов долларов.

Одним из примеров была афера с криптовалютой с использованием поддельного образа Илона Маска, которая, как сообщается, обошлась американским потребителям примерно в 2 миллиона долларов за шесть месяцев.

Возможно, более тревожным является то, что их может создать кто угодно. Г-н Икоев объяснил, что все, что нужно для создания дипфейка на своем смартфоне, — это видеокарта и просмотр нескольких веб-уроков.

— Тогда можешь идти, — сказал он.

Мир возможностей

Сроки предстоящих президентских выборов в США в 2024 году ненадежны, учитывая всплеск дипфейковых материалов.

Г-н Робертс сказал, что американцам следует ожидать предвыборной гонки, полной мошенников, владеющих арсеналом дипфейков.

Министерство внутренней безопасности США также выразило озабоченность по поводу использования этой технологии, заявив: «Угроза дипфейков и синтетических медиа исходит не от технологии, используемой для их создания, а от естественной склонности людей верить тому, что они видят».

Однако ящик Пандоры уже открыт.

Ранее в этом году появились видеоролики, на которых американские политики делают поразительно нехарактерные замечания.

В одном случае Хиллари Клинтон поддерживала кандидата в президенты от Республиканской партии Рона ДеСантиса.

На другом изображен президент Джо Байден, бросающий гневные замечания в адрес трансгендера.

По словам г-на Робертса, это только начало.

«Эта технология будет использоваться во многих политических вмешательствах», — сказал он, добавив, что эта технология сделает следующее событие уровня COVID намного хуже для общественности.

«Я не говорю о дезинформации, как ее описывают либеральные левые. Я говорю о преднамеренной лжи, направленной на социальную инженерию всего мира».


Комментариев нет:

Отправить комментарий

Газа: Израильская армия обнаружила троих мертвых заложников (фото) Они были заложниками с фестиваля Нова, на который Хамас напал 7 октября.

  Представитель ЦАХАЛа бригадный генерал Даниэль Хагари заявил в пятницу, что тела заложников Санни Люка, Амита Бускилы и Ицхака Гелерендера...