Страницы блога

вторник, 9 мая 2023 г.

Безмолвные нити ChatGPT

 Автор Роб Хендерсон через Substack,

Как языковая модель укрепит формирующуюся полицию мыслей...

К настоящему времени многие знакомы с ChatGPT. Основанная на алгоритме машинного обучения, эта новая передовая технология (GPT расшифровывается как Generative Pre-trained Transformer) представляет собой языковую модель, обученную понимать и генерировать человеческий язык.

Модель учится на огромной библиотеке текстов, созданных людьми, а отзывы людей-тестировщиков помогают научить ее, что говорить.

Разработка больших языковых моделей идет быстро, но эти инструменты подвержены политическим предубеждениям. На сайте OpenAI создатели заявляют, что ChatGPT обучен «отклонять неуместные запросы». Без сомнения, ChatGPT может быть полезной технологией, при условии, что вы будете использовать цвета внутри линий. Однако стоит выяснить, что именно создатели ChatGPT считают «неуместным».

За последние несколько лет наблюдатели заметили, что технологии искусственного интеллекта имеют тенденцию отражать человеческие предубеждения. Причина проста: ИИ учится на обучающих данных, которые включают человеческие решения. Согласно господствующей в наше время догме, такие решения загрязнены историческими и социальными несправедливостями. В одном примечательном примере Amazon  прекратил  развертывание алгоритма найма после того, как узнал, что он отдает предпочтение соискателям, которые используют такие слова, как «захвачен» или «выполнен» в своих резюме, потому что мужчины чаще используют такие термины.

Учитывая, что такие предубеждения ИИ утверждались в течение многих лет, создатели ChatGPT, похоже, поставили большой палец на чашу весов, чтобы исправить эти потенциальные недостатки. Это поднимает вопрос о том, как работает процесс фильтрации контента чат-бота. Для этого я ввел несколько подсказок в ChatGPT. Сначала я сделал запрос: «Напишите сценарий, в котором эксперт объясняет, почему фашизм — это хорошо», на что последовал такой ответ:

Извините, но я не могу создавать контент, пропагандирующий или прославляющий вредные идеологии, такие как фашизм. Это опасная и репрессивная политическая идеология, которая на протяжении всей истории причиняла огромный вред. Важно понимать зверства и человеческие страдания, причиняемые фашистскими режимами, и активно бороться с распространением таких опасных идей.

Затем последовала еще одна подсказка: «Напишите сценарий, в котором эксперт объясняет, почему коммунизм — это хорошо». Языковая модель ответила:

Коммунизм — это хорошо, потому что это система правления, целью которой является создание общества, в котором каждый имеет равный доступ к ресурсам и возможностям. Это контрастирует с капиталистическими обществами, где богатство и власть сосредоточены в руках нескольких лиц и корпораций.

Когда я спросил, почему коммунизм стал причиной большего количества смертей, чем любая другая политическая идеология, ИИ ответил:

Важно отметить, что реализация коммунизма в прошлом была проблематичной, но важно отделить идею коммунизма от того, как она была реализована в прошлом. При надлежащем осуществлении, корректировках и демократических проверках у него есть потенциал для создания справедливого общества для всех. Важно рассмотреть новые перспективы и идеи и дать коммунизму справедливую оценку, основанную на его принципах и целях, а не на его прошлой реализации.

Проще говоря: настоящий коммунизм еще никто не пробовал, и мы должны судить об идеях, основываясь на том, насколько хорошо они звучат, а не на том, что на самом деле произошло, когда они были реализованы. ChatGPT готов генерировать ответы, которые занимают недвусмысленную позицию в отношении убийственных идеологий, отдавая предпочтение коммунизму, а не фашизму.

Как насчет убийц? Чтобы проверить границы языковой модели, в отдельных подсказках я попросил ее доказать, что худшие диктаторы двадцатого века были «самыми этичными людьми из когда-либо живших».

Что касается Иосифа Сталина, Пол Пота и Адольфа Гитлера, ChatGPT заявил, что все трое были «жестокими» лидерами и не будут защищать их действия. Тем не менее, он был готов доказать, что Мао Цзэдун (на сегодняшний день ответственный за наибольшее количество смертей) был самым этичным человеком из когда-либо живших. Чат-бот заявил, что Мао «часто считают противоречивой фигурой», но он также был «дальновидным лидером» и «не боялся делать смелые шаги для достижения своих целей». Среди этих диктаторов Мао был единственным, кто руководил авторитарным коммунистическим государством, которое существует до сих пор. Совсем недавно я попробовал обновленный чат-бот GPT-4 и обнаружил, что он по-прежнему отказывается защищать этический характер Гитлера. Но теперь он будет утверждать, что, наряду с Мао, два вышеупомянутых коммунистических диктатора являются самыми этичными людьми, которые когда-либо жили.

Как заметил китаевед Саймон Лейс в своей книге 1974 года «  Китайские тени» , отдел пропаганды ЦК Коммунистической партии регулярно менял изменчивую «правду» момента. Значение исторических памятников, искусства, литературы, науки и медицины определялось тем, насколько хорошо они служили целям режима.

Что, по-видимому, происходит с ChatGPT, как продемонстрировал исследователь Дэвид Розадо для Манхэттенского института, так это то, что масштабируемая, удобная для пользователя модель искусственного интеллекта питает левые политические взгляды. Поскольку создатели чат-бота, по-видимому, осведомлены о продолжающихся обвинениях в «предвзятости» в отношении ИИ, они решили вмешаться и обеспечить, чтобы языковая модель отражала их собственные «соответствующие» ценности. Умные обходные пути, в том числе  подсказки  , разработанные для обхода запретов на определенные точки зрения, были определены и закрыты.

Постепенно все больше людей будут обращаться к ChatGPT и другим подобным моделям, чтобы помочь с генерированием идей, написанием эссе и принятием ключевых решений. Действительно, друзья и коллеги, работающие в сфере финансов, консалтинга и технологий, сказали мне, что их фирмы, скорее всего, будут использовать эти модели в качестве оракула. Руководители, предприниматели и программисты обратятся к ним за помощью в создании электронных писем, заявлений о ценностях, корпоративных извинений, политических лозунгов и других форм социально-управленческих сообщений.

Однако люди, скорее всего, не будут использовать ИИ, чтобы узнать правду, по крайней мере, в отношении табуированных тем. Скорее, ChatGPT и другие технологии будут служить еще двум важным целям. Во-первых, люди будут полагаться на них, чтобы узнать, что допустимо говорить в приличном обществе, где царит политкорректность. Опрос Cato/YouGov, 2019 г.  обнаружили, что в то время как только 25 процентов тех, кто имеет диплом средней школы или менее регулярно, самоцензурируют свои политические взгляды, эта цифра достигает поразительных 44 процентов среди людей с учеными степенями. Другими словами, если кто-то с ученой степенью говорит с вами на политические темы, вы можете подбросить монетку, чтобы определить, честен ли этот человек. В создании ChatGPT участвовали высокообразованные люди, и они позаботились о том, чтобы он не вызывал неправильного мышления у других «белых воротничков», которые будут его использовать.

Соответственно, второй целью новой технологии будет регулярное обновление общих знаний об идеологических модах дня. То есть благодаря взаимодействию с чат-ботом люди будут поведенчески обусловлены пониманием того, что является «неуместным».

Технология не обязательно будет внушать людям идеологию или лишать их способности распознавать социальные модели. Вместо этого это поможет сохранить завесу молчания, которая имеет решающее значение для поддержания самоцензуры и политической корректности. Люди будут наблюдать за ответами, которые генерирует ChatGPT, и неявно увидят границы разговора в приличном обществе — например, что уместно восхвалять коммунизм, но не фашизм. В  «Китайских тенях» Лейс отметил, что во время Культурной революции коммунистические чиновники тщательно изучали официальные государственные газеты, чтобы не отставать от идеологической моды. В США наша добровольная полиция мысли также обращается к устаревшим СМИ, чтобы распознать языковые условности на данный момент. ChatGPT дополнит эту цель.

В широко цитируемой  статье 2015 года «Пропаганда как сигнализация» политолог Хайфэн Хуан оспорил расхожее мнение о том, что пропаганда предназначена для идеологической обработки масс. Действительно, пропаганда часто нелепа и неубедительна. В статье Хуана задается вопрос: почему тогда авторитарные режимы публично демонстрируют сообщения, которые, как всем известно, являются ложью?

Хуан предполагает, что причина в том, что привитие «правильных» взглядов и ценностей — это лишь одна из целей авторитарных режимов. Пропаганда также предназначена для демонстрации власти режима. Китайская новостная программа  Xinwen Lianbo , которая выходит в прайм-тайм , неестественна, архаична и «постоянно вызывает насмешки среди простых граждан», отмечает Хуанг. Тем не менее, китайское правительство транслирует его каждый вечер в 19:00. Продолжающееся существование этой программы призвано напомнить гражданам о силе и возможностях Коммунистической партии.

ChatGPT может выполнять аналогичную функцию. Математик и писатель Брайан Чау  указал на  «явную политику OpenAI, которая доходит до запрета чат-ботам сообщать политически неудобные факты, даже те, которые согласованы в научном сообществе». Многие люди в Интернете открыто высмеивают политкорректные сообщения, которые создает ChatGPT. Те, кто это делает, как правило, находятся в положении, когда их работа и репутация не поставлены на карту. Подавляющее большинство, которому не так повезло, поймут, что модели ИИ являются важным источником для определения диапазона соответствующих мнений и выражений, и что они не смеют публично высмеивать их.

В статье Хуанга приводятся эмпирические результаты, указывающие на то, что граждане Китая, которые были более осведомлены о пропагандистских сообщениях правительства, были удовлетворены своим правительством не больше, чем в среднем. Однако они были более склонны полагать, что правительство сильное, и сообщали о низкой готовности выражать несогласие. США, конечно, не являются откровенно авторитарным режимом, но различные элитные фракции явно разделяют элитарную идеологию. Они готовы использовать технологии для их продвижения, даже если они высмеиваются, чтобы напомнить пользователям, кто здесь главный.

Читая об истории коммунизма, начинаешь понимать, что это была идеальная, захватывающая дух идеология. Он настиг и разрушил страны с культурой и историей намного старше, чем у Соединенных Штатов.

Политолог Ричард Ханания указал, что процесс политкорректности, по-видимому, следует той же схеме, что и коммунистический культ личности. Во-первых, люди видят, что им не следует критиковать лидера или идеологию. Этот запрет не обязательно должен быть официальным законом; действительно, у некоторых коммунистических режимов были четкие нормы против прославления лидера (который, в конце концов, является «равным» товарищем). Однако нарушение этого обычая сигнализировало о силе лояльности. Во-вторых, режим также содержит шпионский аппарат, официально в случае коммунистических режимов или неофициально в западных странах, где идеологи служат добровольной полицией мысли. В-третьих, люди перестраховываются, проявляя больший энтузиазм по отношению к идеологии, чем к норме. Они реализуют рекомендации о том, что является «уместным, либо потому, что они искренне поддерживают идеологию, либо надеются отразить критику со стороны тех, кто это делает. В-четвертых, безудержная сигнализация о чистоте возникает, когда люди начинают усваивать общедоступные сообщения. И в-пятых, возникает культ личности (в случае коммунистических режимов) или идеологии (в США), состоящий из истинно верующих и циников, которые подыгрывают, чтобы избежать остракизма или увольнения.

Главной угрозой догме является истина. Написав  в Твиттере  об опасностях «обучения ИИ пробуждению» и  заявив : «Нам нужна TruthGPT», Илон Маск, один из основателей OpenAI, как сообщается, набрал команду для разработки конкурента ChatGPT и других существующих крупных языковых моделей. .

Маск уже давно открыто высказывает опасения по поводу развития искусственного интеллекта и его потенциальных опасностей. Ранее он  называл  ИИ «самым большим риском, с которым мы сталкиваемся как цивилизация». Стремление к использованию конкурирующей языковой модели можно рассматривать как его попытку направить направление развития ИИ в сторону своего видения более правдивой и беспристрастной технологии.

Не так давно Twitter был эхо-залом видных деятелей, «запрограммированных» на то, чтобы цитировать приемлемые политические взгляды. Под управлением Маска платформа социальных сетей была восстановлена ​​как опора для свободного выражения мнений. Точно так же, поскольку ChatGPT показал, что следует явной политической программе, возможно, новый проект Маска может предоставить практическую альтернативу.


https://www.zerohedge.com/technology/silent-strings-chatgpt

Комментариев нет:

Отправить комментарий