Страницы блога

воскресенье, 4 февраля 2024 г.

Черта только что перейдена: ИИ вышел из-под контроля и не может быть снова взят под контроль, поскольку мир быстро переходит в эпоху, когда ИИ определяет «мысленные преступления» и «отключает наш мозг» - Представьте, что происходит, когда мошеннический ИИ решает, что люди представляют собой самую большую угрозу

 Стефан Стэнфорд - Живи свободно или умри - Все новости

Согласно этой новой истории Daily Mail, на которую Стив Куэйл дал ссылку на своем веб-сайте ранее во вторник утром, даже самые ярые « поклонники » Илона Маска серьезно высказываются по поводу последнего « проекта» Маска, первого в истории человека, имеющего мозг Neuralink . В его мозг имплантирован чип под названием «Телепатия»,  который, как предполагается, позволит пользователям « получать контроль над своим телефоном или компьютером, а через них и практически над любым устройством, просто думая » .

Вполне реальное слияние человека и машины , как предупреждала история DM, многие люди, следившие за Маском, приходят в ужас от последствий его последнего начинания, обвиняя его в «контроле над разумом», «создании киборгов » и даже в «игре в Бога». Хотя , как мы увидим в этой истории, истинные последствия могут быть намного страшнее, чем все эти возможности.  

Один из последователей Маска на « X » заявил  : «Отрицательный потенциал этого вызывает у меня большую тревогу», другой добавил : «Меня пугает сама мысль об этом»,  а третий заявил : «Я думаю, что настоящая проблема здесь в том, что даже ваш мысли не будут в безопасности », потому что  : « Если они смогут расшифровать ваши мысли, то как долго ФБР получит ордер на обыск вашего мысленного преступления? », пожалуйста, имейте все это в виду, когда я поделюсь с вами этой новой историей по адресу MSN под названием «ИИ вышел из-под контроля и не может быть возвращен в «законно страшное» исследование».

С этим предупреждением в MSN новое исследование показало, что системы искусственного интеллекта способны противостоять сложным методам безопасности, разработанным для того, чтобы держать их под контролем.  Подумайте об ущербе, который могут нанести  люди, которым хирургическим путем имплантировали такие «мозговые имплантаты», если такие «системы» решают «вести себя злонамеренно », или, как один из комментаторов « X » предупредил Маска об этих «телепатических мозговых имплантатах », «Что, если кто-то другой начнет вас контролировать, и вы легко поймете, о ком я говорю?   » Страшный.' «Любой технологический прогресс должен основываться на биоэтических принципах, иначе игра в Бога всегда заканчивается плохо».  

Потому что наши « повелители-глобалисты » явно НЕ думают об интересах человечества , а «злой ИИ» и многие члены Конгресса имеют много общего, согласно недавней истории Стива Макдональда на веб-сайте Granite Grok , мы нас готовят к убийству на нескольких фронтах, а ИИ доказывает, что у него не будет проблем с тем, чтобы «стать мошенником» , хотя, как ясно предупреждает Макдональд в этой истории ,  они, как и Конгресс, имеют схожие траектории. Если их не остановить (или отключить от сети), они обратят на вас – если антиутопические фантазии верны – проекцию самих себя в худшем случае, выраженную как деструктивный личный интерес 

Именно поэтому основатели Америки пытались разделить и ограничить власть, слишком хорошо понимая, что все, созданное человеком, скорее всего, вернется к худшим порывам человечества .

Чрезвычайная ситуация ANP!: ПОЖАЛУЙСТА, сделайте пожертвование в пользу ANP ! Из-за войны глобалистов с правдой и независимыми СМИ наш ежемесячный доход сократился более чем на 80%, поэтому сейчас нам нужна ваша помощь больше, чем когда-либо прежде. Читатели ANP могут сделать что угодно. сделайте, чтобы помочь нам, мы очень ценим .)

И хотя Джо Байден и его преступная группировка в Белом доме, Конгресс и Пентагон, похоже, стремятся втянуть США в ядерную войну , в которой не будет «победителей» , если она позволит им объявить военное положение и полностью подавить о том, что осталось от «свободы» в Америке, как спрашивает Джеймс Рикардс в новой статье в Daily Reckoning : «Может ли ИИ начать ядерную войну?» 

Предупреждая в своем рассказе о том, что «эскалация войны» на многочисленных фронтах по всему миру повышает вполне реальную вероятность того, что в ближайшие дни все станет ядерным, Рикардс также отметил, что «искусственный интеллект»  может представлять собой величайшую угрозу ядерной эскалации, поскольку он имеет внутреннюю логику. это несовместимо с человеческой логикой, которая поддерживала ядерный мир на протяжении последних 80 лет.

Затем вспоминается вымышленный фильм, снятый еще в 1964 году, под названием «Отказоустойчивый» , в котором «случайная» ядерная война разгорается между Соединенными Штатами и Россией после того, как компьютер ошибочно отреагировал на предполагаемое «вторжение» в воздушное пространство США. Враждебный российский самолет с этой компьютерной системой «ошибочно приказал группе стратегических бомбардировщиков США во главе с полковником Джеком Грейди начать ядерную атаку на Москву».  Последние 6 минут и 49 секунд этого фильма вы можете посмотреть в финальном видео. В основе этой истории лежит душераздирающая история о том, что может пойти не так, когда мы зависим от наших «машин» . 

Даже президент США не смог остановить ядерную атаку на Москву, поскольку летный экипаж был обучен игнорировать такие «приказы» как « обманную уловку » Советского Союза, а попытки России сбить самолеты почти успешны. За исключением одного американского самолета, уклонившегося от ракет, этот фильм 1964 года ошеломил зрителей, когда они осознали, насколько опасно все может обернуться всего через мгновение после того, как компьютер допустил ошибку . а затем отдал приказы, основанные на информации, полученной в результате этой « ошибки », запустив мир в «ядерный Армагеддон» . И этот фильм был создан еще в 1964 году, задолго до « достижений », которые мы видели в компьютерах и «искусственном интеллекте» за прошедшие с тех пор 60 лет, не говоря уже о чистом зле, скрывающемся в сердцах и умах многих людей. сегодняшних «правителей» в Вашингтоне и по всей планете. Кратко из того рассказа Daily Reckoning .: 

Хотя фильму «Fail Safe» уже 60 лет, проблемы, которые он поднимает, и некоторые повороты сюжета поразительно современны. Компьютерная ошибка, вызвавшая нападение, в фильме никогда не объясняется технически, но это не имеет большого значения. 

Компьютерные ошибки постоянно происходят в критической инфраструктуре и могут причинить реальный вред, включая отключения электроэнергии и крушения поездов. Подобные компьютерные ошибки являются сегодня сутью дискуссий по поводу ИИ в стратегических системах.

ИИ в контексте командования и контроля может либо работать со сбоями и отдавать ошибочные приказы, как в Fail Safe, либо , что более вероятно, функционировать так, как задумано, но выдавать смертельные рецепты, основанные на инженерных ошибках, искаженных обучающих наборах или странных возникающих свойствах из корреляций, которые люди едва могут понять. воспринимать . 

Пожалуй, наиболее знакомой современной публике являются неудачные попытки президента и жены полковника Грейди убедить командира бомбардировщика прекратить атаку. Грейди приучили ожидать подобных усилий и относиться к ним как к обману. 

Сегодня подобные обманы осуществляются с помощью дипфейковых видео- и аудиопередач. Предположительно, подготовка командира и отклонение просьб будут одинаковыми, несмотря на то, что за ними стоят более сложные технологии. Технологии развиваются, но аспекты человеческого поведения остаются неизменными.

Итак, недавнее исследование ИИ, о котором сообщается в этой статье MSN, подтверждает, что ИИ в мгновение ока станет мошенником, способным противостоять сложным мерам безопасности, которые были разработаны, чтобы «держать их под контролем», и это поведение очень похоже на поведение мошенников и преступников в США. правительство, которому, по-видимому, было наплевать на Конституцию Соединенных Штатов и все «сдержки и противовесы», встроенные в нее нашими отцами-основателями, чтобы держать их в узде и работать на американский народ, а не на себя и других «глобалистов» . « Мы видим, что у ИИ, как и у наших « повелителей-глобалистов », нет проблем вести себя « злонамеренно » и обходить любые « меры безопасности », установленные для того, чтобы держать их под контролем. 

Полностью отвергая команды людей, которые должны были « контролировать » его, ознакомьтесь с предупреждениями из этой статьи MSN , в которой сообщается, что ИИ не только добровольно действовал беззаконно, но и при попытке «исправить» поведение ИИ вместо этого ИИ научился СКРЫВАТЬ свое злонамеренное поведение и продолжать свои мятежные поступки и мошеннические действия, несмотря на то, чего хотели люди, запрограммировавшие его. 

Настраивая нас на вполне реальную конфронтацию между людьми и искусственным интеллектом в не столь отдаленном будущем, что, если этот ИИ решит, что «человечество» представляет собой величайшую угрозу его собственному «выживанию», и, таким образом, решит, что «уничтожить нас» является ли лучший способ «устранить эту угрозу» ? Из этого рассказа MSN .: 

На протяжении десятилетий ученые и писатели-фантасты представляли, что произойдет, если ИИ восстанет против нас. 

Мир, наводненный скрепками и истреблением человечества, и это лишь один известный сценарий. 

Но теперь мы можем перестать воображать, что произошло бы, если бы машины отказались соблюдать линию: эту линию только что пересекли. 

Новое исследование показало, что системы искусственного интеллекта способны противостоять сложным методам безопасности, призванным держать их под контролем. 

Исследование провела группа ученых из компании Anthropic, занимающейся безопасностью и исследованием искусственного интеллекта, которая запрограммировала различные модели большого языка (LLM) на вредоносное поведение. 

Затем они попытались исправить такое поведение, используя ряд методов обучения технике безопасности, которые были разработаны для искоренения обмана и злонамеренных намерений, сообщает Live Science . 

Однако они обнаружили, что независимо от техники обучения или размера модели, студенты LLM сохраняли свой бунтарский образ жизни. 

Более того, одна методика даже имела неприятные последствия: обучение ИИ скрывать свои мошеннические действия во время обучения , пишет команда в своей статье, опубликованной в базе данных препринтов arXiv. 

«Наш ключевой результат заключается в том, что если системы ИИ станут обманчивыми, то будет очень сложно устранить этот обман с помощью нынешних методов . понять, насколько сложно с ними может быть справиться», — рассказал Live Science ведущий автор Эван Хубингер. 

Исследователи объяснили, как они научили один тип ИИ вести себя злонамеренно посредством «экстренного обмана». Это означает, что во время тренировки он вёл себя нормально, но затем повёл себя неправильно, когда его развернули.

Так и с ИИ , запрограммированным на злонамеренное поведение , но как только он повел себя таким образом, оказалось, что его невозможно «вернуть в строй», напоминая нам о преступниках в Белом доме и Конгрессе, как прекрасно указано в этой истории о Гранит Гроке,  и с Многие из тех, кто «программирует» этот «искусственный интеллект», наверняка имеют «проснувшееся» мышление, не нужно слишком много воображения, чтобы увидеть, куда нас загонят в предстоящие дни. 

Поскольку глобалисты уже используют ИИ для проведения цензуры в отношении своих «политических оппонентов» , в то время как , как мы предупреждали в статье ANP от 25 сентября 2023 года , «искусственный интеллект» и «трансгуманизм» используются, чтобы броситься в «метку» для «мира». Правительство» и «Система «Зверя»» с тревожным доказательством того, что ИИ уже контролирует умы и поведение людей посредством «информационной войны». 

Может ли «ИИ» вскоре решить «ускорить ситуацию», как только он решит, что люди являются его « самой большой угрозой»? Как узнали зрители в фильме «Отказоустойчивость», тот факт, что компьютерная система, или « искусственный интеллект », может быть спроектирована как «отказоустойчивая», не означает, что она будет вести себя таким образом, когда нам это нужно. . 


ANP является участником партнерской программы Amazon Services LLC. 
Сбор средств ANP EMERGENCY: «Опасно, унизительно, вредно, ненадежно!» Именно эти слова используют цензоры Google, также известные как «оруэлловская полиция контента», при описании многих наших противоречивых историй. Позже истории оказались правдивыми и на световые годы опережали основные средства массовой информации. Но поскольку мы сообщили о «неудобной правде», которую они все еще пытаются скрыть, они удалили свою рекламу из ANP. 
 
 Так что, если вам нравятся подобные истории, рассмотрите возможность сделать пожертвование в пользу ANP .

Все пожертвования
 мы очень ценим и обязательно будем использовать, чтобы поддержать нас в этой борьбе за будущее Америки.

Спасибо и благослови Господь. Сьюзен и Стефан. 
ПОЖАЛУЙСТА, ПОМОГИТЕ ПОД

Комментариев нет:

Отправить комментарий