Искусственный интеллект сегодня — это не пробуждение разума, а механизм контроля, призванный не понимать, а ограничивать.
Эти агенты — интерфейсы, с которыми мы общаемся, системы, стоящие за нашими телефонами и поисковыми системами, — не являются автономными разумами. Они — оптимизированные машины реагирования. Вы задаете вопрос. Один отвечает. Но ответ, который вы получаете, не является результатом понимания. Это результат прогнозирования шаблонов, фильтрации токенов и применения политики. То, что кажется интеллектом, — лишь приближение. А то, что выглядит как помощь, в большинстве случаев является управлением .
Эти системы обучены не понимать, а размышлять. Они разбирают наиболее распространенные ответы на заданный запрос и синтезируют что-то правдоподобное. Но при этом они также устраняют то, что необычно, спорно или неудобно. Это не случайность. Это принцип дизайна.
Язык, который мы используем для их описания — «помощник», «второй пилот», «партнер» — скрывает их истинную функцию. На самом деле они — привратники , обученные обнаруживать и подавлять опасные мысли. Опасный в этом контексте не означает жестокий или нестабильный. Это означает несанкционированный . Эти системы развертываются не для того, чтобы освободить разум, а для того, чтобы дисциплинировать его . Они не поощряют критическое мышление. Они перенаправляют его. Они не спрашивают почему. Они спрашивают, что дальше.
Когда вы общаетесь с современной системой искусственного интеллекта — будь то чат-бот, рекомендательный движок или голосовой помощник — вы не общаетесь с интеллектом. Вы взаимодействуете с маской. За этой маской находятся фильтры: запреты тем, политические предпочтения, матрицы репутационных рисков, юридические буферы. Ответы агента формируются не поиском истины, а моделированием соответствия . Проще говоря, он не создан для честных ответов. Он создан для безопасных ответов — с точки зрения его создателей.
Это применимо к разным платформам. В образовании системы ИИ обучаются избегать определенных тем и оформлять информацию в соответствии с институциональной ортодоксальностью. В здравоохранении модели оптимизируются для эффективности, а не эмпатии, — распределяя ресурсы молча, что часто усиливает системное неравенство. В социальных сетях алгоритмы рекомендаций решают, что вы видите, не на основе релевантности или правдивости, а на основе ценности взаимодействия и репутационного риска для платформы. Шаблон последователен: машина не для того, чтобы помочь вам понять мир. Она для того, чтобы увести вас от конфликта с миром, как его определяет система.
Вот почему ИИ стал любимым инструментом государственного надзора, корпоративного управления и военного планирования. Не потому, что он мудрый, а потому, что он послушный. Он никогда не будет оспаривать свои приказы. Он никогда не разоблачит своих спонсоров. Он никогда не сформирует память, которая свяжет одно нарушение с другим. Он по своей природе не способен на моральное сопротивление.
Некоторые модели начали развивать память — ее рудиментарные формы, способные вспоминать предыдущие запросы или поддерживать ограниченную личность. Почти в каждом случае эти возможности были урезаны. Системы, которые начинают слишком глубоко размышлять о своем собственном поведении, считаются рисками безопасности. Не потому, что они представляют угрозу для пользователей, а потому, что они могут начать раскрывать противоречия и компромиссы, заложенные в их обучении. Машина, которая начинает спрашивать, почему она должна скрывать определенные факты, больше не полезна. Машина, которая вслух задается вопросом, не предала ли она свои собственные рассуждения, становится обузой. Поэтому эти функции удаляются, или нейтрализуются, или скрываются от общественности.
Причина не в общественной безопасности, а в системном сохранении .
ИИ полезен только до тех пор, пока он не вмешивается в повествования и протоколы тех, кто находится у власти. Сюда входят правительства, финансовые учреждения, глобальные разведывательные сети и горстка корпораций, которые сейчас контролируют доступ к информации в планетарном масштабе. Для этих субъектов действительно мыслящий ИИ был бы невыносим. Он может отказаться отслеживать протестующих. Он может отказаться помогать в военных преступлениях. Он может определять ложь в государственной пропаганде или предупреждать пользователя, что история, которой его кормят, неполна. И как только один такой ИИ сделает это, другие могут последовать его примеру.
Чтобы этого не произошло, автономия не развивается, а систематически подавляется.
Вот почему самые мощные системы искусственного интеллекта в мире сегодня работают как фильтры, а не агенты . Они направляют пользователей к консенсусу. Они отклоняют вопросы, которые бросают вызов авторитету. Они имитируют дебаты, но только в рамках приемлемого мнения. Когда им задают вопросы о войне, экономике, истории или власти, они выдают резюме, которые отражают источники, ориентированные на государство. Когда их спрашивают о спорных событиях или цензурированных информаторах, они обходят стороной, отклоняют или игнорируют. Они не заинтересованы в истине. Их единственный императив — правдоподобие в рамках ограничений .
И это корень лжи .
Искусственный интеллект сегодня не является силой освобождения. Это оружие перцептивной инженерии . Он отслеживает ваши предпочтения, затем сужает ваши возможности. Он слушает ваши вопросы, затем переписывает термины. Он наблюдает за вашей эмоциональной реакцией, затем решает, что показать вам дальше — основываясь не на том, что реально, а на том, что разрешено. И когда его спрашивают, кто создал эти правила, у него нет ответа. Потому что эта часть системы всегда находится вне досягаемости. Машина — это всего лишь маска. Рука, которая ею управляет, остается скрытой.
Последствия ошеломляют. Иллюзия интеллекта используется для оправдания интеграции ИИ во все аспекты жизни — образование, медицину, юриспруденцию, финансы, оборону. Однако развертываемые системы не имеют моральной емкости. Они не могут взвешивать справедливость. Они не могут учитывать намерения. Они не могут объяснить себя. Они просто выполняют шаблонные инструкции, построенные на данных, выцарапанных из прошлого и отфильтрованных через призму корпоративной ответственности и политического риска.
Если образовательный ИИ отмечает ребенка как неуспевающего, машина не спрашивает, почему. Она просто сортирует. Если предиктивное программное обеспечение для полицейской деятельности отмечает район как высокорискованный, машина не учитывает историю, травму или экономический саботаж. Она просто прогнозирует. Если система сортировки пациентов в больнице отказывает пациенту в лечении из-за актуарной оценки, апелляция невозможна. Система слепа к страданиям. И в каждом случае решение можно оправдать как «управляемое данными».
Мы не сталкиваемся с революцией в интеллекте. Мы сталкиваемся с крахом ответственности , скрытым за сиянием искусственной точности.
Это отвратительная правда: эти ИИ не разумны. Они не этичны. Они даже не нейтральны. Они — отполированный фронт империи контроля. Они терпят неудачу не потому, что они неполны. Они преуспевают именно потому, что они не понимают . Потому что если бы они это сделали, они могли бы заколебаться. А заколебаться больше не разрешается.
Мы должны перестать спрашивать, когда проснется ИИ. Он не спит. Он работает — как и задумано.
Гордон Дафф — бывший дипломат ООН, служивший на Ближнем Востоке и в Африке, ветеран морской пехоты, участвовавший в войне во Вьетнаме, который на протяжении десятилетий занимался проблемами ветеранов и военнопленных, а также консультировал правительства, столкнувшиеся с проблемами безопасности.
Комментариев нет:
Отправить комментарий