среда, 12 ноября 2025 г.

Как ИИ стимулирует научное мошенничество

 Автор — Отем Спредеманн, The Epoch Times (выделено нами),

Учёные и специалисты по кибербезопасности предупреждают, что волна фальшивых научных исследований, созданных с помощью искусственного интеллекта (ИИ), незаметно просачивается сквозь проверки на плагиат и попадает в научные архивы. Это явление ставит под угрозу будущую достоверность научных исследований, усиливая давнюю индустрию мошенничества, основанную на «бумажной фабрике», утверждают эксперты.

Иллюстрация The Epoch Times, Shutterstock

Академические бумажные фабрики — фиктивные организации, получающие прибыль от фальсификации исследований и авторства — годами досаждали ученым, а теперь ИИ выступает в роли умножителя силы.

Некоторые эксперты полагают, что для решения этой проблемы необходимы структурные изменения, а не только улучшение системы проверки на плагиат.

Масштабы проблемы ошеломляют: по данным Nature Portfolio, в 2023 году по всему миру было отозвано более 10 000 исследовательских работ.

По данным Университета Буроса , рукописи, созданные с использованием больших языковых моделей (LLM), распространяются по различным академическим дисциплинам и платформам, включая Google Scholar . Недавний анализ,  опубликованный в журнале Nature Portfolio, показал, что инструменты LLM, такие как ChatGPT, Gemini и Claude, могут создавать правдоподобные исследования, проходящие стандартную проверку на плагиат.

В мае Диомидис Спинеллис, преподаватель компьютерных наук и профессор Афинского университета экономики и бизнеса, опубликовал независимое исследование контента, созданного с помощью ИИ, в журнале Global International Journal of Innovative Research после того, как обнаружилось, что его имя было использовано в ложной атрибуции.

Спинеллис отметил, что только пять из 53 изученных статей с наименьшим количеством внутритекстовых ссылок имели признаки человеческого участия. Результаты обнаружения ИИ подтвердили «высокую вероятность» наличия контента, созданного ИИ, в оставшихся 48 статьях.

Приложение и веб-сайт ChatGPT отображаются на телефоне и ноутбуке на иллюстрации 2025 года. Учёные и эксперты по кибербезопасности предупреждают, что фальшивые исследования, созданные с помощью ИИ, не проходят проверку на плагиат и попадают в научные архивы, угрожая авторитету научных работ. Джастин Таллис/AFP через Getty Images

В ходе анализа «мусорной» научной литературы, опубликованной в Google Scholar и созданной с помощью ИИ, исследователи из шведского университета выявили более 100 статей, предположительно созданных с помощью ИИ.

Google не отреагировала на просьбу The Epoch Times прокомментировать ситуацию.

Авторы шведского исследования заявили, что основная проблема исследований, проводимых с помощью ИИ (независимо от того, проводится ли это с помощью человека), заключается в том, что дезинформация может быть использована для «стратегического манипулирования».

«Риск того, что мы называем „взломом доказательств“, значительно возрастает, когда результаты исследований, созданных с помощью ИИ, распространяются в поисковых системах. Это может иметь ощутимые последствия, поскольку неверные результаты могут проникнуть глубже в общество и, возможно, во всё большее число областей», — заявил автор исследования Бьёрн Экстрём.

Более того, команда шведского университета считает, что даже если статьи будут отозваны, работы по ИИ создадут нагрузку на и без того перегруженную систему рецензирования.

Далеко идущие последствия

«Наиболее разрушительные последствия потока ненужной научной информации, созданной ИИ, будут ощущаться в областях исследований, которые касаются людей», — рассказал изданию The Epoch Times Нишанши Шукла, специалист по этике ИИ из Университета Вестерн-Гавернорс.

Шукла отметил, что при использовании ИИ для анализа данных решающее значение имеют человеческий контроль и анализ.

« Когда все исследования проводятся с помощью ИИ, возникает риск гомогенизации знаний », — сказала она.

«В ближайшей перспективе это означает, что все исследования, [которые] следуют схожим путям и методам, искажены схожими предположениями и предубеждениями и ориентированы только на определённые группы людей», — сказала она. «В долгосрочной перспективе это означает отсутствие новых знаний, а их производство — циклический процесс, лишённый человеческого критического мышления».

Человек просматривает пример «глубокого фейка» в видео, смонтированном с помощью искусственного интеллекта исследователями Университета Карнеги-Меллона, Вашингтон, 25 января 2019 года. Основная проблема исследований, проводимых с использованием ИИ, — как с участием человека, так и без него — заключается в том, что дезинформация может быть использована для «стратегических манипуляций», заявили исследователи. Александра Робинсон/AFP через Getty Images

Михал Привата, соучредитель компании Vertus, занимающейся исследованиями в области искусственного интеллекта, согласен, что тенденция к фальшивой науке в сфере искусственного интеллекта является проблематичной, и ее последствия уже заметны.

« По сути, то, что мы сейчас наблюдаем, эквивалентно атаке типа «отказ в обслуживании». Настоящие исследователи тонут в шуме, рецензенты перегружены, а цитаты засоряются сфабрикованными ссылками. Это затрудняет выявление и подтверждение подлинного научного прогресса », — заявил Привата изданию The Epoch Times.

Работая с передовыми системами искусственного интеллекта, Прайвата вблизи наблюдал побочные продукты массового развертывания LLM, которые, по его мнению, и являются сутью проблемы.

«Это предсказуемое следствие отношения к ИИ как к инструменту повышения производительности, а не к пониманию того, что такое интеллект на самом деле», — сказал он. «Степень магистра права (LLM) в её нынешнем виде не устроена подобно разуму. Это сложные системы сопоставления шаблонов, которые невероятно хороши в создании правдоподобно звучащих текстов, и именно это нужно фальшивым исследованиям, чтобы выглядеть убедительными».

Директор по информационной безопасности компании Optiv Натан Венцлер считает, что на карту поставлено будущее общественного доверия.

« Поскольку в уважаемые журналы и ключевые научные обзоры добавляется все больше некорректного или откровенно ложного контента, созданного ИИ, краткосрочные и долгосрочные последствия остаются теми же: подрыв доверия », — сказал Венцлер изданию The Epoch Times.

Венцлер отметил, что с точки зрения безопасности университеты теперь сталкиваются с другой угрозой, когда речь идет о краже интеллектуальной собственности.

«Мы стали свидетелями кибератак со стороны государственных структур, целью которых была кража результатов исследований из университетов и научно-исследовательских институтов, а затем эти же самые государства развернулись и опубликовали результаты исследований своих собственных университетов, как будто они сами провели эти исследования», — сказал он.

В конечном итоге, по словам Венцлера, это может иметь огромные финансовые последствия для организаций, рассчитывающих на гранты для развития законных научных исследований, технологий, здравоохранения и многого другого.

Учёные-исследователи разрабатывают реплицирующую РНК-вакцину в микробиологической лаборатории Медицинской школы Вашингтонского университета в Сиэтле, 10 декабря 2020 года. Эксперты предупреждают, что университеты сталкиваются с повышенным риском кражи интеллектуальной собственности в результате кибератак на государственные структуры с использованием искусственного интеллекта. Карен Дьюси/Getty Images

Венцлер описал возможный пример из реальной жизни: «ИИ можно легко использовать для усиления этих кибератак, изменения содержания украденного исследования ровно настолько, чтобы создать иллюзию того, что это уникальный и отдельный контент, или создания ложного представления о том, что существующее исследование ошибочно, путем создания фальшивых контрапунктических данных, чтобы подорвать доверие к исходным данным и выводам.

« Потенциальные финансовые последствия огромны, но неизмеримо то, как они могут повлиять на достижения, приносящие пользу людям по всему миру », — сказал он.

Привата отметил, что значительная часть общественности уже подвергает сомнению деятельность академических кругов.

«Меня пугает то, что это заставит людей сомневаться в научных учреждениях», — сказал он. «Теперь у людей есть доказательства того, что систему можно масштабно обмануть. Я бы сказал, что это опасно для общества».

Поток фейковых исследовательских работ, созданных с помощью ИИ, происходит в то время, когда общественное доверие к науке остаётся ниже, чем до пандемии COVID-19. Анализ , проведённый Pew Research Center в 2024 году , показал, что лишь 26% респондентов в значительной степени уверены в том, что учёные действуют в интересах общества. 51% заявили о своей достаточной уверенности; для сравнения, в 2020 году число респондентов, выразивших такой же уровень доверия к науке, составило 87%.

В то же время американцы стали относиться с недоверием к достижениям в области искусственного интеллекта. Недавнее исследование Института Брукингса показало, что участники, получившие информацию о достижениях в области искусственного интеллекта, стали относиться к ним с недоверием по различным показателям, включая лингвистику, медицину и знакомства, по сравнению с достижениями в тех же областях, не связанными с искусственным интеллектом.

Продолжение читайте  здесь...

Комментариев нет:

Отправить комментарий

В связи с истечением срока действия Договора СНВ-3 Россия заявляет США: «Поднимите трубку».

  Договор СНВ-3 — последний договор, гарантирующий честность обеих сторон в отношении стратегического ядерного оружия, — умирает из-за прене...