Всемирный экономический форум (ВЭФ) призвал правительство во всем мире начать заключать в тюрьму владельцев социальных сетей, которые разрешают контент ‘non mainstream’ на своих платформах.
Правая рука Клауса Шваба Юваль Ной Харари говорит, что такие люди, как Илон Маск, должны нести ответственность за так называемую ‘misinformation’ на X.
Rairfoundation.com репортажи: Аргумент Харари бросает вызов давней защите, используемой компаниями социальных сетей: свободе слова. “Они всегда пытаются защитить себя, апеллируя к свободе слова... компаниям нужно взять на себя ответственность за свой алгоритм,” Харари заявил. Он настаивает на том, что платформы должны нести ответственность не только за пользовательский контент, но и за то, как их алгоритмы усиливают или подавляют конкретные сообщения.
Это представляет собой значительный сдвиг в фокусе, выходящий за рамки создателей контента и нацеленный непосредственно на механизмы распространения контента. Позиция Харари ясна: “Если алгоритм пишет его, то вы определенно несете ответственность за то, что пишет ваш алгоритм.” Это приводит в фокус растущую роль искусственного интеллекта (ИИ) в модерации онлайн-контента.
Нацеленность на видение Илона Маска
Комментарии Харари, по-видимому, являются прямым выстрелом в Илона Маска, который приобрел X с целью продвижения открытого потока информации. Маск уже давно отстаивает идею о том, что информация должна быть свободной, и что процветающая демократия зависит от свободного обмена идеями, даже спорными. Харари отвергает эту точку зрения, говоря: “Информация не правда. Большая часть информации в мире является мусорной... Если вы думаете, что вы просто наводните мир информацией и правда всплывет вверх—no, она потонет.”
Харари предполагает, что подход Маска, позволяющий всей информации свободно течь, создает среду, где истина перегружена шумом. Он утверждает, что такие учреждения, как газеты, университеты и суды, необходимы для просеивания информации и определения того, что является надежным. Он сравнивает с редактором крупной газеты, отмечая, что так же, как редактор несет ответственность за то, что размещено на первой странице, компании социальных сетей должны придерживаться того же стандарта, когда их алгоритмы продвигают контент.
Угроза Свободной Речи?
Суть аргумента Харари заключается в том, что модерация контента больше не должна быть запоздалой мыслью и что владельцы платформ не должны иметь возможности скрываться за претензиями о свободе слова, чтобы избежать ответственности. Но критики видят, что разворачивается другая история. Этот сдвиг в мышлении может легко привести к нападкам на свободу слова, особенно если платформы, такие как X, будут наказаны за то, что они позволяют видеть спорные или неосновные левые взгляды.
Замечания Харари подчеркивают более широкую обеспокоенность тем, что считается “надежной информацией, и кто может решать. Если платформы несут ответственность за контент, который продвигают их алгоритмы, это может эффективно подавлять речь, которая не соответствует взглядам тех, кто находится в power—, особенно голосов, не входящих в WEF, и не входящих в истеблишмент. Возлагая юридическую ответственность на владельцев этих платформ, Харари выступает за новый уровень контроля над онлайн-дискурсом, который многие считают угрозой самому принципу свободы слова.
Правовые и Социальные Последствия
Последствия призыва Харари к ответственности значительны. Например, если платформа, подобная X, несет юридическую ответственность за контент, который считается ненадежным, она может быть вынуждена принять крайние меры цензуры, опасаясь судебных разбирательств. Это особенно тревожно, когда мы вступаем в политически заряженный сезон, где платформы, такие как X, являются жизненно важными инструментами для общественного дискурса.
Харари ссылается на давние дебаты по разделу 230 в США, который защищает платформы от ответственности за контент, который публикуют их пользователи. Это было краеугольным камнем защиты речи в Интернете. Тем не менее, Харари, похоже, считает, что рост ИИ и алгоритмов усложняет эту динамику, оправдывая новый подход, при котором платформы отвечают не только за хостинг контента, но и за его распространение.
Выделяя Илона Маска и такие платформы, как X, Харари по сути выступает за систему, где свобода слова вторична по отношению к алгоритмической ответственности. Это откроет двери для юридических последствий для тех, кто не соблюдает ВЭФ или утвержденные истеблишментом повествования. Этот шаг может иметь глубокие последствия для будущего свободы слова в Интернете, особенно в контексте цензуры, основанной на ИИ.
Прецедент охлаждения
Призыв Харари к ответственности может иметь далеко идущие последствия, особенно для свободы слова. Хотя решение проблемы дезинформации может показаться разумным на первый взгляд, привлечение таких платформ, как X, к ответственности за свои алгоритмы, скорее всего, приведет к крайней цензуре— то, что мы уже наблюдали в период с 2020 по 2023 год в отношении вируса COVID и потенциальных методов лечения. Выделяя Илона Маска и других, Харари выступает за будущее, где свобода слова подчинена алгоритмическому контролю.
Есть по крайней мере две основные проблемы: Кто решает, что представляет собой ‘надежных’ информации, и является ли более вредным для республики столкнуться с потенциально неверной информацией, чем иметь государственные правила, контролирующие то, что можно сказать на общественных форумах? Если платформы сталкиваются с юридическими последствиями для усиления неосновного контента, они могут подавлять несогласные голоса, чтобы избежать судебных разбирательств. Это может превратить Интернет в пространство, где привратники, а не пользователи, контролируют discourse—a опасный прецедент в цифровую эпоху.
Комментариев нет:
Отправить комментарий