Статья Джейкоба Бурга, опубликованная в The Epoch Times.
Слоны, сбивающие с ног крокодилов и нарушающие законы физики, поразительные дипфейки политиков и умерших общественных деятелей, а также, казалось бы, анимированные детские видеоролики, где Иисус сражается с Гринчем: генеративный искусственный интеллект (ИИ) стремительно распространяется на онлайн-видеоплатформах и, согласно недавним исследованиям, может теперь составлять значительную часть короткометражных видеороликов на YouTube.
После того как в прошлом году инструменты генеративного ИИ обвинили в том, что они стали причиной попадания пользователей в психиатрические больницы и якобы помогли нескольким подросткам, страдающим депрессией, покончить жизнь самоубийством, они также вдохновляют на создание новых жанров онлайн-контента.
Изображения и клипы, созданные с помощью ИИ, были обнаружены в 21 проценте из 500 коротких видеороликов, просмотренных в ходе исследования , опубликованного в ноябре прошлого года компанией Kapwing, занимающейся разработкой программного обеспечения для видеомонтажа. При этом некоторые из проанализированных каналов насчитывали миллионы подписчиков и миллиарды просмотров.
По оценкам, некоторые каналы, такие как индийский Bandar Apna Dost, ежегодно приносят миллионы долларов дохода от рекламы на YouTube. Эти каналы распространены по всему миру, при этом, согласно исследованию, каналы из Испании и Южной Кореи имеют «наиболее преданную аудиторию».
«Инструменты генеративного искусственного интеллекта значительно снизили барьер для входа в индустрию видеопроизводства», — заявила изданию The Epoch Times Рохини Лакшане, междисциплинарный исследователь в области технологий.
«Таким образом, канал может производить огромное количество контента и поддерживать высокую частоту публикаций. Каналы, использующие эти методы, могут просто заваливать ленты рекомендаций огромным количеством контента, независимо от его качества».
Вот что нам известно о «разложении мозга» и «некачественном ИИ», что поставлено на карту для зрителей и создателей контента, и почему вам, возможно, стоит быть внимательнее при просмотре социальных сетей.
«Загнивость мозга» и «Некачественный ИИ»
Компания Kapwing установила, что 33 процента видеороликов, просмотренных после создания новой учетной записи на YouTube, имели признаки контента, который можно отнести к категории «несерьезного или неинтересного», по определению Оксфордского университета , и который считается ухудшающим «психическое или интеллектуальное состояние человека».
Существовавшее задолго до появления генеративного искусственного интеллекта, понятие «разложение мозга» включает в себя мемы, юмор, бессмысленные сценки, видеоролики с детьми или животными, совершающими «глупые» действия или модели поведения, а также другие формы контента, которые минимально вовлекают пользователей в интеллектуальное взаимодействие или не несут в себе никакого смысла, кроме случайности или абсурда.
Сочетание генеративного ИИ с характеристиками «разложения мозга» порождает новый жанр, который многие называют «халтурой ИИ», который Капвинг определяет как «небрежный, низкокачественный контент», созданный с помощью инструментов ИИ и предназначенный для «накрутки просмотров и подписок или влияния на политический контент».
По определению, то, какой контент можно считать «раздражающим» или «низкокачественным», может различаться от человека к человеку. Например, один человек может описать все короткие «комедийные» видеоролики как «раздражающие», в то время как другой может найти их по-настоящему занимательными и выбрать другое определение.
То же самое можно сказать и о «некачественном ИИ», поскольку некоторые создатели контента, такие как профессор лингвистики из колледжа Монтрит Т. Майкл Халкомб, используют инструменты генеративного ИИ в качестве дополнения к своей собственной научной работе.
Халкомб, который также пародирует «AI-ерунду» и «мозговую гниль» в своем студенческом комедийном клубе, рассказал изданию The Epoch Times, что использует инструменты ИИ для создания коротких видеороликов на основе своих постов в блоге, применяя эту технологию для создания видеоклипов, клонирования своего голоса для озвучивания и генерации текста на экране.
По его словам, существует значительное совпадение между пользователями, которые сохраняют человеческий фактор, одновременно используя инструменты ИИ, и теми, кто просто использует ИИ для создания того, что другие назвали бы «ерундой» или контентом массового производства, ориентированным на получение просмотров.
«Я думаю, что человеческий фактор не исчез полностью. Он просто позволяет людям ускорять процессы», — сказал Халкомб, добавив, что даже некоторые так называемые «каналы с ИИ-контентом», такие как испанский «Imperio de jesus», где демонстрируются созданные с помощью ИИ анимации Иисуса, сражающегося с Сатаной и Гринчем, используют «шоковый юмор» и абсурдизм, подогревая любопытство зрителей.
Во многих из этих видеороликов также присутствует элемент «лора», поскольку на канале выше повторяются сюжетные ходы, которые развиваются на основе предыдущих видео, что Халкомб сравнил с «внутренними шутками» в комедии, позволяющими одному видео вести к другому и так далее.
Если посмотреть на канал Bandar Apna Dost, который, по словам его создателей, демонстрирует «реалистичных обезьян в забавных, драматичных и трогательных ситуациях, напоминающих человеческие», то можно заметить, что в видеороликах используется искусственный интеллект для всего, от визуального оформления до фонового звука.
По словам Лакшане , видеоролики популярны , потому что они имитируют сцены из популярных индийских фильмов и демонстрируют «образ гипермаскулинного главного героя, который совершает противоправные или противоправные действия, подвиги сверхчеловеческого масштаба и, порой, обладает невероятной социальной или политической властью».
«Видеоролики на канале несвязны и не имеют единого сюжета или повествования. Для просмотра коротких видеороликов не требуется никаких предварительных знаний или контекста. В них есть персонажи, например, один, похожий на Невероятного Халка, — по имени Халку, — что делает видео привлекательными и обеспечивает широкий охват аудитории», — сказала она.
Другие каналы могут использовать менее явный искусственный интеллект или ИИ, который некоторым зрителям сложнее обнаружить, как, например, видео, найденное изданием The Epoch Times, которое «выглядит» как настоящее видео с сафари, где слон защищает другого от крокодила.
Но как только зрители увидят, как второй слон с силой отбрасывает крокодила более чем на 9 метров, нарушая законы физики, становится гораздо яснее, что видео было создано с помощью ИИ, хотя его создатель, по-видимому, приложил немало усилий, чтобы водяной знак инструмента Sora, разработанного OpenAI, появился только на одном кадре — на третьей секунде восьмисекундного видео.
На экране в Лондоне 12 января 2026 года демонстрируются примеры видеороликов, созданных с помощью приложения Grok от Xai и с использованием подсказок ИИ. Фото: Леон Нил/Getty Images.
Риски видеороликов, созданных с помощью ИИ.
Как и в приведенном выше примере, многие видеоролики, созданные с помощью ИИ, намеренно выглядят максимально реалистично, что, по мнению некоторых организаций, увеличивает риск обмана и дезинформации в интернете.
AARP, некоммерческая организация, представляющая интересы американцев в возрасте 50 лет и старше, в прошлом месяце предупредила , что видеоролики, созданные с помощью искусственного интеллекта, все больше затрудняют для некоторых пользователей «различение реальности и подлинности контента».
Организация отметила решение компании OpenAI, создателя ChatGPT, принятое в октябре 2025 года, заблокировать в своем приложении для создания видео Sora 2 «неуважительные» видеоролики, созданные с помощью ИИ и изображающие преподобного доктора Мартина Лютера Кинга-младшего.
Быстро созданные с помощью ИИ дипфейк-видео также распространились по онлайн-платформам на протяжении всей президентской избирательной кампании 2024 года, а Центр правосудия им. Бреннана в марте прошлого года предупредил , что видео, созданные с помощью ИИ, могут оказать серьезное влияние на будущие циклы голосования.
Научные исследователи обеспокоены тем, что это явление может проникнуть в медицинскую информацию и образовательные видеоролики, где, согласно исследованию , опубликованному Национальной медицинской библиотекой в ноябре 2025 года, существуют «особые риски для обучения с помощью якобы образовательных видеороликов, созданных искусственным интеллектом без участия человека» .
В ходе исследования было проанализировано 1082 онлайн-видеоролика в образовательной категории «доклинические биомедицинские науки», и было обнаружено, что 5,3% из них, по-видимому, были «сгенерированы искусственным интеллектом и низкого качества». Это говорит о том, что технология все еще медленно внедряется в онлайн-контент, посвященный медицинской информации, но ее распространение, возможно, постепенно увеличивается.
Даже при отсутствии дезинформации видеоролики с «некачественными материалами от ИИ», которые заполонили YouTube и TikTok, оказывают психологическое воздействие на пользователей, заявил Джефф Бернингем, венчурный капиталист из технологической индустрии и автор книги «Последняя книга, написанная человеком: как стать мудрым в эпоху ИИ», в интервью The Epoch Times.
«Думаю, довольно очевидно, почему это становится популярным, и это не то, чем я или мы как общество должны гордиться», — сказал он.
«Это играет на наших самых низменных желаниях. И я думаю, это признак того, что дофамин преобладает над проницательностью… [и] вовлеченность преобладает над пониманием».
В своей книге Бернингем утверждает, что реальная опасность, связанная с ИИ, заключается не столько в самой технологии, сколько в «атрофии человеческого внимания и осознанности».
На этом архивном фото, сделанном 11 августа 2024 года, женщина держит телефон с запущенным приложением YouTube. Фото: Алексей Пыдсосонний/The Epoch Times
Результаты эксперимента
Издание The Epoch Times создало новый аккаунт YouTube, используя новый адрес электронной почты в приватном веб-браузере, чтобы предотвратить влияние предыдущих файлов cookie браузера на тип или жанр видео, просмотренных первыми.
Затем мы проанализировали первые 300 коротких видеороликов, показанных на YouTube после первоначального входа в аккаунт, и обнаружили, что подавляющее большинство — 88 процентов — имели признаки «затуманивания сознания», то есть содержали мало или совсем не содержали смысла, кроме абсурда, случайности или стремления привлечь внимание.
Однако некоторые из этих видеороликов попадали в серые зоны, особенно в рамках аморфного жанра «комедия», что затрудняло точное определение того, сколько из них можно отнести к категории «разложение мозга», которая, по словам Халкомба, во многом субъективна.
В ходе нашего анализа выяснилось, что только 8 процентов из первых 300 видеороликов, просмотренных на новом аккаунте YouTube, были сгенерированы искусственным интеллектом, причем некоторые использовали изображения, созданные ИИ, в то время как другие — например, видео со слоном и еще одно, где женщина прячется в багажнике своей машины, спасаясь от стаи волков, пытающихся на нее напасть, — по всей видимости, являются полностью сгенерированными ИИ видеороликами.
Мы не увидели видео ни с одного из каналов, упомянутых в исследовании Kapwing в разделе «Самые популярные YouTube-каналы с ИИ-шной ерундой», что может быть связано с местоположением или другими факторами, особенно если предыдущие файлы cookie браузера могут влиять на то, какие видео увидит новая учетная запись на платформе.
Другая возможность заключается в том, что халтура, созданная с помощью ИИ, несмотря на растущую популярность, пока просто не превосходит по масштабу другие формы так называемого «разложения мозга», которые The Epoch Times выявила в своем эксперименте: мемы, люди, разыгрывающие сценки перед камерами, и странные попытки комедии, которые в остальном снимаются и монтируются реальными людьми.
Даже если контент, создаваемый ИИ, получит широкое распространение, как предсказывают некоторые, его рост может оказаться не таким апокалиптическим, как опасаются некоторые, если человечество сможет воспринять этот экзистенциальный момент переосмысления как возможность для эволюции, сказал Бернингем, описывая технологию ИИ как «космическое зеркало человечества».
«Размышление может быть очень полезным, потому что вы видите себя немного яснее, и благодаря этому обретаете дополнительную ясность — вы можете изменить свою позицию или перестроиться. Будут ли люди так поступать? Я не знаю», — сказал он.
«Трудно быть оптимистом, но я думаю, что именно такую возможность нам предоставляет ИИ. Эти технологии процветают, потому что сейчас внимание дешево, оно фрагментировано миллионом разных способов, и мы истощены. Но мой страх, очевидно, и я думаю, что опасность, которую представляет собой ИИ, заключается в том, что когда внимание рушится, рушится и мудрость, и память, и смысл, а это пугающая ситуация для человечества».



Комментариев нет:
Отправить комментарий