Согласно отчету, опубликованному на этой неделе, хакер предположительно использовал Anthropic, быстрорастущий стартап в области искусственного интеллекта, стоящий за популярным чат-ботом Claude, для организации того, что власти называют «беспрецедентной» кампанией киберпреступности, нацеленной на почти 20 компаний.
В отчёте, опубликованном Anthropic и полученном NBC News , подробно описывается, как хакер манипулировал Клодом, чтобы выявлять компании, уязвимые для кибератак. Затем Клод генерировал вредоносный код для кражи конфиденциальных данных и каталогизировал информацию, которую можно было использовать для вымогательства , и даже составлял угрожающие сообщения, отправляемые компаниям-жертвам.
NBC News сообщает:
Похищенные данные включали номера социального страхования, банковские реквизиты и конфиденциальную медицинскую информацию пациентов . Хакер также похитил файлы, связанные с конфиденциальной военной информацией, регулируемой Государственным департаментом США, известной как Правила международной торговли оружием.
Неясно, сколько компаний заплатили и сколько денег получил хакер, но суммы вымогательства варьировались от 75 000 до более чем 500 000 долларов, говорится в отчёте.
Джейкоб Кляйн, глава отдела по анализу угроз компании Anthropic, заявил, что кампания, по всей видимости, является работой хакера, действующего за пределами США , но не предоставил никаких дополнительных подробностей о преступнике.
« У нас есть надежные меры предосторожности и несколько уровней защиты для обнаружения такого рода злоупотреблений, но злоумышленники иногда пытаются обойти наши системы, используя изощренные методы », — сказал Кляйн .
Результаты исследования Anthropic основаны на том, что всё больше злоумышленников используют ИИ для создания более убедительных, масштабируемых и неуловимых мошеннических схем, чем когда-либо. Согласно отчёту SoSafe Cybercrime Trends , за последний год 87% организаций по всему миру столкнулись с кибератаками с использованием ИИ, и эта угроза набирает обороты.
« Искусственный интеллект значительно повышает сложность и персонализацию кибератак » , — заявил Эндрю Роуз, директор по безопасности компании SoSafe. «Хотя организации, похоже, осведомлены об этой угрозе, наши данные показывают, что компании не уверены в своей способности обнаруживать эти атаки и реагировать на них».
Искусственный интеллект — это не только инструмент киберпреступников, но и фактор, увеличивающий уязвимость организаций. Стремясь быстро внедрять инструменты на основе ИИ, компании могут непреднамеренно подвергать себя новым рискам.
« Даже доброжелательный ИИ, который организации используют для собственной выгоды, может быть использован злоумышленниками для обнаружения ценной информации, ключевых активов или обхода других средств контроля », — продолжил Роуз.
«Многие компании создают чат-ботов на основе искусственного интеллекта, чтобы оказывать помощь своим сотрудникам, но лишь немногие продумали сценарий, при котором их чат-бот станет соучастником атаки, помогая злоумышленнику собирать конфиденциальные данные, идентифицировать ключевых лиц и собирать полезную корпоративную информацию», — добавил он.

Комментариев нет:
Отправить комментарий