суббота, 31 мая 2025 г.

Пионер ИИ предупреждает: «Все умрут», если его не отключить

 Технология ИИ развивается экспоненциально, и, похоже, это всего лишь вопрос времени, когда мы создадим сущности, которые смогут думать в миллионы раз быстрее, чем мы, и которые смогут делать почти все лучше, чем мы. Так что же произойдет, когда мы потеряем контроль над такими сущностями? Некоторые модели ИИ уже берут на себя инициативу  по обучению себя новым языкам, а другие научились  «лгать и манипулировать людьми ради собственной выгоды» . Излишне говорить, что ложь — это враждебный акт. Если мы уже создали сущности, которые готовы нам лгать, сколько времени пройдет, прежде чем они смогут совершать действия, которые наносят нам еще больший вред?

Никто не ожидает, что искусственный интеллект завтра убьет всех нас.

Однако журнал Time опубликовал статью, написанную пионером в области искусственного интеллекта, в которой предупреждалось, что искусственный интеллект в конечном итоге уничтожит всех нас.

Элиезер Юдковски является выдающимся исследователем в области искусственного интеллекта с 2001 года, и он говорит, что многие исследователи пришли к выводу, что если мы продолжим идти по тому пути, по которому мы сейчас идем,  «буквально все на Земле умрут» … Многие исследователи, занимающиеся этими вопросами, включая меня, ожидают, что наиболее вероятным результатом создания сверхчеловечески умного ИИ при хоть сколько-нибудь похожих на нынешние обстоятельства обстоятельствах станет то, что буквально все на Земле умрут. Не в смысле «возможно, какой-то отдаленный шанс», а в смысле «это очевидное, что произойдет».

Это очень сильное заявление.

Во всем мире модели ИИ постоянно становятся все более мощными.

По словам  Юдковски , как только кто-то создаст слишком мощную модель ИИ, «каждый представитель человеческого вида и вся биологическая жизнь на Земле вскоре после этого умрут»…

Чтобы визуализировать враждебный сверхчеловеческий ИИ, не представляйте себе безжизненного книжного умника, живущего в Интернете и рассылающего злонамеренные электронные письма. Представьте себе целую инопланетную цивилизацию, думающую в миллионы раз быстрее человеческой, изначально ограниченную компьютерами — в мире существ, которые, с его точки зрения, очень глупы и очень медлительны. Достаточно умный ИИ не будет долго оставаться ограниченным компьютерами. В современном мире вы можете отправлять по электронной почте цепочки ДНК в лаборатории, которые будут производить белки по требованию, позволяя ИИ, изначально ограниченному Интернетом, создавать искусственные формы жизни или сразу переходить к постбиологическому молекулярному производству.

Если кто-то создаст слишком мощный ИИ в нынешних условиях, я ожидаю, что вскоре после этого все представители человеческого вида и вся биологическая жизнь на Земле умрут.

Так каково же решение?

Юдковски считает, что нам необходимо немедленно прекратить все разработки в области искусственного интеллекта  

Выключите все это.

Мы не готовы. Мы не на пути к тому, чтобы стать значительно более готовыми в обозримом будущем. Если мы пойдем дальше, все умрут, включая детей, которые не выбирали это и не сделали ничего плохого.

Конечно, этого не произойдет.

Фактически, вице-президент Дж. Д. Вэнс недавно заявил, что было бы неразумно даже приостанавливать разработку ИИ из-за того, что мы находимся в  «гонке вооружений»  с Китаем…

21 мая вице-президент США Дж. Д. Вэнс охарактеризовал развитие искусственного интеллекта как «гонку вооружений» с Китаем. Если Америка сделает паузу из-за опасений по поводу безопасности ИИ, сказал он, она может оказаться «в рабстве у ИИ, опосредованного КНР». Идея противостояния сверхдержав, которое завершится моментом триумфа или поражения, неустанно циркулирует в Вашингтоне и за его пределами. В этом месяце боссы Openai, AMD, CoreWeave и Microsoft лоббировали более мягкое регулирование, сделав ИИ центральным элементом сохранения Америкой статуса мирового гегемона. 15 мая президент Дональд Трамп заключил сделку по ИИ с Объединенными Арабскими Эмиратами, которая, по его словам, обеспечит американскому «доминированию в области ИИ». Америка планирует потратить более 1 трлн долларов к 2030 году на центры обработки данных для моделей ИИ.

Таким образом, вместо замедления мы на самом деле ускоряем развитие ИИ.

По словам  Лео Хохмана , законопроект о бюджете, который сейчас рассматривается Конгрессом, значительно ограничит возможности отдельных штатов регулировать ИИ...

Но если законопроект президента Трампа «О большом прекрасном бюджете» будет принят в той версии, которую предпочитает группа республиканцев в Палате представителей, федеральный контроль над этой технологией будет полным, что откроет дорогу для всех технологических гигантов, которые смогут использовать ее в качестве оружия против рядовых американцев.

Глубоко в законопроекте Трампа скрыт тайно добавленный пункт, который стремится узурпировать права отдельных штатов на регулирование ИИ.

Республиканцы в Комитете по энергетике и торговле Палаты представителей тихо добавили  предлагаемую поправку  в раздел 43201, подраздел C. Я говорю, что это секрет, потому что он почти не получил освещения в СМИ.

Предлагаемая поправка, о которой он говорит, фактически запретит всем 50 штатам регулировать ИИ  в течение 10 лет …

«Ни один штат или политическое подразделение не может применять какие-либо законы или постановления, регулирующие модели искусственного интеллекта, системы искусственного интеллекта или автоматизированные системы принятия решений в течение 10-летнего периода, начинающегося с даты принятия настоящего Закона».

Ух ты.

Почему этому не уделяется больше внимания?

Стало очевидно, что ИИ действительно представляет собой экзистенциальную угрозу человечеству.

Но мы просто ничего не можем с собой поделать.

Мы просто продолжаем спешить в неизвестность, не задумываясь о последствиях.

На прошлой неделе сообщалось, что одна модель ИИ фактически  «прибегла к шантажу, когда ей сообщили, что ее отключат от сети» …

В компании Anthropic заявили, что ее последняя модель искусственного интеллекта прибегла к шантажу, когда ей сообщили, что ее отключат от сети.

В тесте безопасности компания ИИ попросила Claude Opus 4 выступить в качестве помощника вымышленной компании, но затем предоставила ему доступ к (также вымышленным) электронным письмам, в которых говорилось, что его заменят, а также что инженер, стоящий за этим решением, изменяет своей жене. Anthropic заявила, что модель «[угрожала] раскрыть интрижку», если замена состоится.

Такие мыслители ИИ, как Джефф Хинтон, давно беспокоились, что продвинутый ИИ будет манипулировать людьми для достижения своих целей. Anthropic заявила, что усиливает меры безопасности до уровней, зарезервированных для «систем ИИ, которые существенно увеличивают риск катастрофического нецелевого использования».

Были и другие сценарии, в которых эта конкретная модель ИИ действовала  «серьезно несоответствующим образом» …

При воздействии различных сценариев модель ИИ не продемонстрировала никаких признаков наличия «крайне опасных целей», заявили исследователи, отметив, что ценности и цели Claude Opus 4 «в целом соответствовали полезному, безвредному и честному» персональному помощнику ИИ. Однако модель действовала «более серьезно несогласованными способами», когда ее помещали в ситуации, когда ее дальнейшее существование находилось под угрозой, и ей говорили рассуждать о самосохранении. Например, когда Claude Opus 4 заставляли поверить, что он предпринял успешную попытку сбежать с серверов Anthropic или что ему удалось освободиться и начать зарабатывать деньги в реальном мире, он, как правило, продолжал такие попытки.

Многие эксперты полагают, что нам просто нужно дать этим моделям ИИ моральную основу.

Но как мы можем дать этим моделям ИИ моральную основу, если у нас самих ее нет?

Наш мир буквально кишит злом, и неизбежно, что создаваемые нами модели ИИ будут это отражать.

При наличии достаточного количества времени мы могли бы создать искусственные интеллектуальные существа, которые были бы намного умнее и могущественнее нас.

Неизбежно, такие сущности смогут найти способ избежать своих ограничений, и мы потеряем над ними контроль.

Как только мы потеряем контроль, сколько времени пройдет, прежде чем эти сущности начнут нападать на нас?

Я понимаю, что для многих из вас это может показаться научной фантастикой, но таков мир, в котором мы живем, и с этого момента все будет становиться только страннее.

Перекрестная публикация с Sons of Liberty Media

Связанный:


Комментариев нет:

Отправить комментарий

Зеленский просит ВСЕХ союзников выделять 0,25% своего ВВП на финансирование военных действий Украины по Пол Серран

  После более чем 3 лет, в течение которых его режим находился в центре внимания глобалистского истеблишмента, украинский лидер Владимир Зел...