Искусственный интеллект отвечает на вопросы, но не задаёт их. Гостевая статья Роберта Гора на сайте Straight Line Logic.
Никогда прежде человечество не тратило столько средств на проект, от которого получит так мало, как проект искусственного интеллекта (ИИ). Его разработка основана на предположении, что человеческий интеллект (ИИ), который он пытается имитировать и превзойти, аналогичен его собственным протоколам работы. Другими словами, люди получают данные и обрабатывают их определенными способами, которые приводят к понятным результатам, и в этом суть ИИ.
Разработчики ИИ переворачивают научный процесс исследования реальности с ног на голову, определяя, моделируя и, возможно, извлекая из неё что-то полезное, вместо этого предполагая, что реальность HI соответствует создаваемой ими модели ИИ. Это всё равно что ожидать, что часы покажут природу времени. Это может показаться удивительным, потому что среди разработчиков ИИ есть одни из самых умных людей в мире. Однако они демонстрируют глубокое отсутствие тех качеств, которые могли бы привести их к более глубокому пониманию HI: самосознания, самоанализа, смирения, мудрости и понимания того факта, что большая часть HI остаётся довольно загадочной и, возможно, всегда будет таковой. Увы, некоторые из них просто злые.
Искусственный интеллект смотрит в прошлое. Он получает и усваивает огромные массивы существующих данных, обрабатывая и анализируя их бесчисленными способами. Большие языковые модели (БЛМ) могут отвечать на запросы людей и выдавать ответы на основе усвоенных и обработанных данных. ИИ может быть интегрирован в процессы и системы, в которых процедуры и результаты зависят от данных и логически определенных протоколов для их оценки. В рамках этих параметров он продемонстрировал способности решать задачи (игра в сложные игры, медицинская диагностика, экзамены на профессиональную квалификацию, улучшение существующих процессов), которые превосходят возможности человеческого интеллекта. Конечно, в таком использовании БЛМ и ИИ есть ценность, но эта ценность проистекает из улучшения некоторых более обыденных аспектов человеческого интеллекта — усвоения, обработки и оптимизации данных для использования. Оправдывает ли эта ценность триллионы долларов и мегаватт, выделяемых на ИИ? Несомненно, нет.
Искусственный интеллект не может и не будет касаться самых интересных, важных и перспективных аспектов ИИ, потому что никто еще не понял, как эти аспекты на самом деле работают. Они связаны с вопросом: как человеческий разум и душа порождают новое? Как любопытство, теоретизирование, воображение, креативность, вдохновение, экспериментирование, импровизация, развитие, пересмотр и настойчивость объединяются, чтобы породить инновации? Абсурдно предполагать, что у нас есть хотя бы элементарное понимание того, откуда берется новое. Спросите новаторов и творцов, как у них появилась новая идея, и вы, скорее всего, получите ответы вроде: вдохновение разбудило их в три часа ночи или пришло к ним, когда они сидели на унитазе. Смоделируйте это! В основе проблемы лежит то, что, хотя ИИ может ответить на, казалось бы, бесконечное количество вопросов, он не может задать ни одного. Его можно запрограммировать на выявление и попытку разрешения конфликтов в данных, но он не задает вопросы автономно. С рождения человеческий разум является автономным генератором вопросов; Так мы учимся. Это не ограничивается нашим видом. Любой, кто когда-либо наблюдал за щенками или котятами, может заметить, что у них есть нечто, сродни человеческой любознательности. Они исследуют окружающую среду и интересуются всем новым (если не боятся этого). Любопытство и вопросы — основа обучения и интеллекта. Даже чтение одной страницы чего-то интересного или провокационного породит вопросы. Генеративный ИИ «читает» триллионы страниц без малейшего любопытства. Никто из тех, кто приветствует или предупреждает о том, что ИИ превзойдет человеческий интеллект, не объяснил, как он это сделает, обойдя основы человеческого интеллекта.
Предполагается, что генеративный ИИ будет создавать нечто новое, безоговорочно манипулируя существующими данными. Однако даже в этом контексте ИИ сталкивается с, возможно, неразрешимыми проблемами. Под «коллапсом модели» понимается ухудшение качества моделей ИИ, обученных на результатах, сгенерированных самим ИИ. Вот иллюстрация:

« Крах модели: вся экономика, функционировавшая как пузырь, — это галлюцинация », Чарльз Хью Смит, 3 декабря 2025 г.
Как правило, искусственный интеллект совершенствуется по мере того, как чаще пытается что-то сделать. Деградация ИИ приводит к тому, что генеративный ИИ начинает создавать галлюцинации — бессмыслицу. Это означает, что один или несколько человек должны контролировать ИИ, чтобы предотвратить такие галлюцинации. Сколько мелких, неочевидных галлюцинаций ускользает от внимания? Никто не знает.
Искусственный интеллект преподносится как чудо, позволяющее экономить труд. Но многие компании сообщают о другом опыте: «рабочая халтура» — контент, созданный ИИ, который выглядит отполированным, но требует кропотливой доработки людьми. Время не экономится — оно незаметно перемещается.
Исследования указывают на тот же парадокс:
• Согласно сообщениям СМИ, Массачусетский технологический институт обнаружил, что 95% пилотных программ по внедрению ИИ в корпорациях не демонстрируют измеримой окупаемости инвестиций.
• Исследование MIT Sloan показывает, что внедрение ИИ может привести к первоначальным потерям производительности, а любые потенциальные выгоды зависят от существенной адаптации со стороны организации и персонала.
• Даже McKinsey — один из величайших энтузиастов ИИ — предупреждает, что ИИ приносит пользу только после масштабных изменений в человеческом и организационном составе. «Управлять генерацией ИИ легко, но создавать ценность сложно».
Это говорит о том, что ИИ еще не вытеснил человеческий труд. Он лишь скрыл его — за алгоритмами, интерфейсами и автоматизированными результатами, которые все еще требуют корректировки.
« Искусственный интеллект, ВВП и общественный риск, о котором мало кто говорит », Марк Кинан, 1 декабря 2025 г.
Часто цитируемая цифра от S&P Global Market Intelligence гласит, что 42 процента компаний уже отказались от своих инициатив в области ИИ. Чем больше зависимость людей от ИИ, тем выше опасность того, что деградация ИИ приведет к деградации человеческого интеллекта. Интенсивное использование ИИ может сделать человечество в целом глупее.
Когда ИИ работает так, как задумано, без заметных сбоев, он обрабатывает огромные объемы часто противоречивых данных. Как он разрешает эти конфликты? Разрешение в основном статистическое — то, что наиболее распространено, становится тем, чему ИИ «учится».
На основе обширного массива данных, служащего входными данными для обучения, модель LLM изучает ассоциации и корреляции между различными статистическими и дистрибутивными элементами языка: конкретными словами относительно друг друга, их взаимоотношениями, порядком, частотой и так далее. Эти статистические ассоциации основаны на закономерностях использования слов, контексте, синтаксисе и семантике, обнаруженных в обучающем наборе данных. Модель формирует «понимание» того, как слова и фразы, как правило, встречаются вместе в различных контекстах. Модель не только изучает ассоциации, но и понимает корреляции между различными лингвистическими элементами. Другими словами, она определяет, что определенные слова с большей вероятностью встречаются в конкретных контекстах.
« Вам нужна только теория: ИИ, человеческое познание и причинно-следственное мышление », Теппо Фелин и Маттиас Холвег, Strategy Science, 3 декабря 2024 г.
Результаты работы ИИ, по сути, представляют собой консенсусное «знание», измеряемое с помощью возможностей ИИ по анализу данных и статистическому анализу. Консенсус может определяться как среднее значение, взвешенное с учетом квалификации и результатов различных распространителей данных. При выдаче «ответов» ИИ может отмечать противоречия в данных и предлагать альтернативные интерпретации. Однако, помимо того факта, что консенсус, даже взвешенное среднее, часто бывает ошибочным, существует более серьезная опасность. Консенсусная мудрость часто является заклятым врагом инноваций. ИИ, основанный на консенсусе, в целом может скорее замедлять, чем способствовать инновациям.
Фелин и Холвег приводят в пример «воздушно-тяжелый» управляемый полет человека в конце 1800-х и начале 1900-х годов . Представьте, если бы искусственный интеллект существовал в 1902 году, и был бы задан вопрос: возможен ли воздушно-тяжелый полет человека? Казалось бы, уверенный ответ был бы: определенно нет! Это было подавляющее большинство экспертов, и ИИ отразил бы это. Если бы ИИ руководил принятием решений — одной из его разрекламированных способностей — он бы «спас» человечество от полетов. К счастью, у Орвилла и Уилбура было много человеческого интеллекта, и они проигнорировали так называемых экспертов, что часто является разумной стратегией.
Так почему же ИИ так активно продвигается? Почему все «правильные» люди в правительстве, бизнесе, академических кругах и основных СМИ так преданы ему? Почему триллионы тратятся, пока на фондовом рынке лопаются пузыри?
Если последние несколько десятилетий чему-то нас и научили, так это тому, что когда официальная программа не имеет смысла, особенно если в ней присутствует элемент «официальной науки», нужно начинать искать истинные причины, скрытые мотивы. Реакция на COVID-19 не была связана со здоровьем и безопасностью. Искусственно созданный вирус, локдауны, закрытие предприятий, ношение масок, социальное дистанцирование, отказ от эффективных методов лечения или их запрет, чрезмерное давление на вакцинацию, игнорирование побочных эффектов вакцинации, вплоть до смерти, и предлагаемые «паспорта вакцинации» способствовали установлению тоталитаризма.
Изменение климата служит той же цели. Подобно искусственному интеллекту, «ученые», занимающиеся проблемой изменения климата, обращают научный процесс вспять, настаивая на том, что реальность соответствует их моделям. Действуя в защитном пузыре, поддерживаемом академическими кругами, СМИ, бизнесом, НПО, правительствами и многонациональными организациями, они враждебно относятся к противоположным доказательствам, вопросам и критике своих моделей, которые имеют важное значение для подлинной науки.
Как и изменение климата или COVID, ИИ вызывает восторг у тоталитаристов и потенциальных тоталитаристов. Сбор, обработка и манипулирование данными — это технологическая основа государства тотальной слежки. Это всё, что технототалитаристы (см. «Технототалитаризм», части первая , вторая и третья ) требуют от ИИ — всеобъемлющие данные, которые можно сортировать по всем доступным показателям, включая те, по которым граждане могут представлять угрозу правительству, риторическую или иную. Некоторые из них, должно быть, понимают, что ИИ никогда не приблизится к уровню HI, но это полезное утверждение, аргумент в пользу его внедрения, позволяющий привлечь огромные объемы капитала с Уолл-стрит и поддержку со стороны технототалитарной администрации Трампа .
Вероятно, главное, что Трамп понимает об ИИ, — это тоталитарное расширение прав и возможностей. В этом вопросе у него есть общие интересы с китайским правительством (хотя оно, несомненно, знает об ИИ гораздо больше, чем Трамп). Президент поддержал ИИ, рекламируя проект «Звёздные врата» на следующий день после инаугурации, а теперь задействует всю мощь правительства, его научных лабораторий и частных технологических «партнёров» для поддержки миссии «Генезис» — проекта, якобы сопоставимого по масштабу с «Манхэттенским проектом», направленного на внедрение ИИ практически во всё. Если штаты, с их назойливыми опасениями по поводу огромных потребностей ИИ в земле, воде и энергии, попытаются вмешаться, Трамп только что издал указ о федерализации регулирования ИИ .
На Уолл-стрит существует общеизвестная истина: правительства подхватывают рыночные тренды, когда те вот-вот закончатся. Ажиотаж вокруг ИИ взлетел до головокружительных высот. Хотя немногие эксперты и провидцы ставят под сомнение ошибочную основную предпосылку — что ИИ полностью превзойдет человеческий фактор, — некоторые начинают выражать обеспокоенность по поводу его колоссальных финансовых и энергетических затрат, а также циклического характера многих механизмов финансирования. Если бы в «Миссии Бытия» Трампа в качестве главного пункта был указан ИИ, это стало бы продолжением длинного списка прецедентов. Возможно, её следовало бы назвать «Миссией Откровения», в честь последней, а не первой книги Библии.

Комментариев нет:
Отправить комментарий