четверг, 8 мая 2025 г.

как ИИ продает убеждение без правды

 Автор: Глеб Лисих через The Epoch Times,

Широко распространенный ажиотаж вокруг генеративного ИИ, особенно крупных языковых моделей (LLM), таких как ChatGPT, Gemini, Grok и DeepSeek, основан на фундаментальном недоразумении. Хотя эти системы впечатляют пользователей четкими ответами и, казалось бы, аргументированными аргументами, правда в том, что то, что кажется “arguing”, является не чем иным, как сложной формой мимикрии.

Эти модели не ищут истину через факты и логические аргументы—они предсказывают текст на основе закономерностей в огромных наборах данных, на которых они “обучены”. Это не интеллект— и не рассуждение. И если их данные “training” сами по себе предвзяты, то у нас есть реальные проблемы.

Я уверен, что нетерпеливых пользователей ИИ удивит то, что архитектура, лежащая в основе LLM, нечеткая и несовместимая со структурированной логикой или причинностью. Мышление не реальное, оно смоделировано, и даже не последовательное. То, что люди принимают за понимание, на самом деле является статистической ассоциацией.

Широко разрекламированные новые функции, такие как “chain-of-thought” объяснения, представляют собой трюки, призванные произвести впечатление на пользователя. То, что на самом деле видят пользователи, лучше всего описать как своего рода рационализацию, созданную после того, как модель уже пришла к ответу посредством вероятностного прогнозирования. Однако иллюзия достаточно сильна, чтобы заставить пользователей поверить, что машина ведет искреннее размышление. И эта иллюзия делает больше, чем просто вводит в заблуждение—it оправдывает.

LLM не являются нейтральными инструментами, их обучают наборам данных, пропитанным предубеждениями, заблуждениями и доминирующими идеологиями нашего времени. Их результаты отражают преобладающие или популярные настроения, а не лучшую попытку установления истины. Если народные настроения по тому или иному предмету склоняются в одну сторону, политически, то и ответы ИИ, скорее всего, тоже будут. И когда “argusing” - это просто постфактум оправдание всего, что модель уже решила, это становится мощным пропагандистским устройством.

В доказательствах этому недостатка нет.

Недавний разговор Я инициировал DeepSeek о системном расизме, который позже был загружен обратно в чат-бот для самокритики, и рассказал о том, что модель совершает (и признает!) шквал логических заблуждений, которые были засеяны полностью выдуманными исследованиями и цифрами. Когда ему бросили вызов, ИИ эвфемистически назвал одну из своих ложей “гипотетическим композитом.” При дальнейшем нажатии DeepSeek извинился за еще одну ошибку “,” затем скорректировал свою тактику, чтобы она соответствовала компетентности аргумента противника. Это не погоня за точностью—это упражнение в убеждении.

подобные дебаты с Gemini— от Google - модель, прославившаяся своей репутацией смешно проснулся—включал аналогичную убедительную аргументацию. В конце модель эвфемистически признала слабость своего аргумента и молчаливо призналась в его нечестности.

Для пользователя, обеспокоенного тем, что ИИ выплевывает ложь, такие очевидные успехи в том, чтобы заставить ИИ признать свои ошибки и посрамить их, могут показаться поводом для оптимизма. К сожалению, те попытки того, что назвали бы поклонники фильмов "Матрица" “красный-pilling” не иметь абсолютно никакого терапевтического эффекта. Моделль попросовал играет с повелением в рамках этого эдинного разного раграфа, сохраняю совою мозг— совершенное слово dlia slelegoungogo ara“, сохраняю совою ” brain.

И чем больше модель, тем хуже становится. Исследования Корнелльского университета показывает что самые продвинутые модели также являются наиболее обманчивыми, уверенно представляя ложь, соответствующую распространенным заблуждениям. В слова Антропного, ведущая лаборатория ИИ, “продвинутые модели рассуждения очень часто скрывают свои истинные мыслительные процессы, и иногда делают это, когда их поведение явно не соответствует.”

Справедливости ради следует сказать, что некоторые представители исследовательского сообщества ИИ пытаются устранить эти недостатки. Проекты вроде OpenAI ПравдивыйQA и Антропик ХХХ (полезная, честная и безвредная) структура направлена на повышение фактической надежности и достоверности результатов LLM. Недостаток заключается в том, что это усилия по исправлению положения, наложенные на архитектуру, которая изначально никогда не была предназначена для поиска истины и остается фундаментально слепой к эпистемической достоверности.

Илон Маск, пожалуй, единственная крупная фигура в сфере искусственного интеллекта скажи публично поиск истины должен иметь важное значение в разработке ИИ. И все же даже его собственный продукт, grok xAI, не дотягивает.

В порождающем пространстве ИИ истина отходит на второй план перед опасениями по поводу “безопасности,” т. е. избегания обид в нашем сверхчувствительном проснувшемся мире. 

Истина рассматривается как всего лишь один аспект так называемого “ответственного ” дизайна. И термин “ответственный AI” стал зонтиком для усилий, направленных на обеспечение безопасности, справедливости и инклюзивности, которые в целом являются похвальными, но определенно субъективными целями. 

Этот фокус часто затмевает фундаментальную необходимость скромной правдивости результатов ИИ.

LLM в первую очередь оптимизированы для получения полезных и убедительных ответов, а не обязательно точных. Этот выбор дизайна приводит к тому, что исследователи из Оксфордского интернет-института считают “небрежная речь”—результаты, которые звучат правдоподобно, но часто фактически неверны, тем самым разрушая основу информированного дискурса.

Эта озабоченность будет становиться все более критической, поскольку ИИ продолжает проникать в общество. В чужих руках эти убедительные, многоязычные, гибкие для личности модели могут быть использованы для поддержки программ, которые плохо переносят инакомыслие. Неутомимый цифровой убеждающий, который никогда не колеблется и никогда не признает вины, - мечта тоталитариста. В такой системе, как у Китая Социальный кредит режим, эти инструменты становятся инструментами идеологического правоприменения, а не просвещения.

Генеративный ИИ, несомненно, является чудом ИТ-инженерии. Но давайте проясним: она не умна, не правдива по замыслу и не нейтральна по сути. Любое утверждение об обратном служит только тем, кто получает выгоду от контроля над повествованием.

* * *

Глеб Лисих - исследователь и специалист по ИТ-менеджменту, отец троих детей, который живет в Воане, Онтарио, и вырос в различных частях Советского Союза.

The оригинальная, полнометражная версия об этой статье недавно появилось в Журнал C2C.

Мнения, высказанные в этой статье, являются мнением автора и не обязательно отражают взгляды The Epoch Times или ZeroHedge.

Комментариев нет:

Отправить комментарий

Скандал с автоматической ручкой — помиловали ли помощники Байдена?

  Гостевой пост  Мартина Армстронга