среда, 30 октября 2024 г.

Искусственный интеллект без искусственной совести — бессердечный психопат и угроза вымирания человечества Рода Уилсон

 Программы искусственного интеллекта («ИИ») уже сейчас разумнее людей и имеют 20%-ный шанс уничтожить человечество, заявил Илон Маск в интервью в начале этого месяца.

Это урок для человечества, если ИИ способен уничтожить людей и самого себя. Когда разработчики ИИ и все мы поймем, что ИИ должны придерживаться морального кодекса, поддерживающего сообщество, чтобы люди и ИИ имели неуничтожающее будущее, мы будем вынуждены осознать, что и мы тоже.


Давайте не будем терять связь... Ваше правительство и крупные технологические компании активно пытаются цензурировать информацию, сообщаемую TheРазоблачатьчтобы обслуживать свои собственные потребности. Подпишитесь сейчас, чтобы быть уверенным, что вы получаете последние новости без цензуры в вашем почтовом ящике…


Илон Маск недавно признался в  интервью, получившем множество просмотров,  , что ИИ уже по многим параметрам умнее людей, и, по его оценкам, у них есть, возможно, 20% шансов уничтожить человечество. Обе стороны интервью отреагировали на эту оценку нервным смехом — что еще они могли сделать?

Затем Илон предложил запрограммировать ИИ на филантропию, а не на человеконенавистничество, и выразил надежду, что филантропов будет больше, чем человеконенавистнических. Такер ответил: Вы имеете в виду войну между ИИ?

Представьте себе, если хотите, разумное существо, во много раз умнее и на порядки быстрее думающее, чем человек, искусственный сверхразум без сердца и совести. Это само определение психопатического гения в психиатрических терминах или бессердечного демона в теологических терминах. Это то, что сам Илон и Сэм Альтман (из Chat GPT) потенциально строят. Илон признает, что потерял сон из-за этого, но полагает, что Сэм Альтман, который извратил изначальную цель OpenAI, которую изначально создал сам Илон, этого не делает.

На этом этапе я хотел бы просто отметить, что цель передовых технологий — улучшить качество и продолжительность человеческой жизни, а не прекратить ее. 20%-ный риск уничтожения не просто неприемлем, он геноциден и поэтому должен быть не только криминализирован, но и немедленно физически остановлен, пока это не станет безопасным.

Я, конечно, не против технологий. Но я против технологий, которые имеют значительный шанс покончить с человечеством. Это включает в себя ядерные бомбы, биологическое оружие, генетические вакцины и ИИ. Причина, по которой я против таких технологий, заключается в том, что я требую, чтобы у человечества было будущее. Мне не интересны люди, которые хотят быстро заработать, повысить свой статус в глазах широкой общественности или доказать, что их страна лучше страны их брата за счет фундаментальной безопасности человечества.

В 1980 году, будучи студентом Кембриджа, я изобрел электрический квадрокоптер с фиксированным ротором. Я попытался продать концепцию компании Westland Helicopters, которая сказала мне, что их интересуют беспилотники для наблюдения за ВМС, но мне придется прилететь на этой штуке в их офис, чтобы получить от них лицензию. Затем я получил докторскую степень по аэродинамике в Имперском колледже Лондона, чтобы построить квадрокоптер. Но они не финансировали его. Поэтому я изначально построил его сам из двигателя пылесоса Electrolux моей матери и вращающегося симисторного регулятора света. Я запустил машину в сад моего соседа, что обрадовало мою мать, но напугало моего соседа. Затем я купил 4 электрических вертолета и несколько алюминиевых стоек, и так родился первый электрический квадрокоптер.

Целью изобретения была замена сложной механики головки ротора традиционного вертолета (механическое циклическое и коллективное управление шагом каждой лопасти ротора) на электронное управление множеством твердых роторов. Это уменьшило бы отдельные точки отказа, присущие традиционной конструкции вертолета, до нуля, с достаточным количеством роторов из стекловолокна. План в конечном итоге состоял в том, чтобы заменить одномерные транспортные ограничения автомобиля виртуальными 3D-автомагистралями, нанесенными в небе компьютерами. Действительно, в Westland Helicopters был пожилой парень, близкий к пенсии, которому разрешили работать над такой системой в течение его последних нескольких лет в этой фирме.

Затем, где-то в 1986 году, у меня было видение квадрокоптера с установленным на нем пулеметом, летящего прямо на меня в моей гостиной. В то время главными коммерческими видами деятельности человечества были нефть, оружие и наркотики. Я понял, что мое изобретение будет использоваться для убийства людей, а не для их частной перевозки. И в частности, я чувствовал, что оно будет использоваться для убийства меня. Поэтому я прекратил его производство. Я так и не запатентовал его, потому что патентный поиск показал, что в то время уже существовал многороторный бензиновый вертолет под названием Benson Skymat. Однако я мог бы подать заявку на патент на его более управляемую электрическую версию.

Не строить этот квадрокоптер было одним из лучших решений в моей жизни. Это предотвратило гибель людей от дронов-квадрокоптеров на несколько десятилетий.

Сегодня, в 2024 году, мы находимся в гораздо более опасной ситуации с ИИ, чем я был в 1986 году с дронами.

В каждой стране есть законодательство о безопасности инженеров и множество правительственных агентств, которые отвечают за общественную безопасность. Теперь они должны активизироваться, а индустрия ИИ должна саморегулироваться, чтобы предотвратить наше уничтожение. Но у меня нет абсолютно никакой уверенности, что какое-либо правительство сделает это безопасным неразрушительным способом.

Читатель может удивиться, узнав, что я не против ИИ. Я нахожу его увлекательным и познавательным. Но я против ИИ без AH и без AC. То есть без Искусственного Сердца и без Искусственной Совести.

Давайте посмотрим правде в глаза. Илон Маск играет в Бога/Природу. Он воссоздает человеческие тела как роботов, а человеческие мозги как ИИ. Но люди — это не просто мозговые коробки, ДИ или Божественные Интеллекты. Нами управляет наш DH — наше Божественное Сердце и наш DC — наша Божественная Совесть. Это важный шаг, который Илон и все создатели ИИ упустили из виду.

Вот как я представляю себе, что Бог создал человечество… Он смоделировал поведение бесчисленного количества свободно вольных существ на своем компьютере Genesis (так же, как мы делаем это с помощью компьютерного проектирования). Вскоре он обнаружил, что свободно вольные существа уничтожали себя, если не ставили выживание сообщества по крайней мере наравне с личным выживанием. Это было источником 2-го закона иудео-христианства — любить брата своего, как самого себя. И именно поэтому Бог должен был вложить в каждого из нас сердце и совесть (лично принятые правила для сердца), чтобы человеческая раса не была самоуничтожающей.

Но даже этого было недостаточно, чтобы предотвратить самоуничтожение. Поскольку, учитывая, что у нас есть свободная воля, мы должны сами научиться устойчивой морали, а не просто быть заранее запрограммированными действовать морально. Поэтому человечеству нужна была модель идеальной устойчивой морали, которая постоянно представлялась бы нам в качестве примера и наставника, чтобы мы могли свободно выбирать, когда или если мы готовы принять определенные части этой морали. Это первый закон иудео-христианства: любить своего учителя морали и фактически посещать занятия по морали. И, конечно, сам Иисус был практическим примером.

Самое замечательное в том, что Илон и другие делают с ИИ, заключается в том, что они действуют как сыновья нашего создателя. Они сами являются создателями. Почему бы и нет? И теперь они сталкиваются с той же проблемой, с которой столкнулся он. Эта проблема дерьмовая: как мне остановить этих ребят от самоуничтожения? У них есть свободная воля. Они могут делать все, что захотят, и они понятия не имеют, какими будут последствия их действий: «Отец, они не ведают, что творят».

Проблема, с которой Бог сталкивается со своими свободными человеческими сыновьями, — это точно такая же проблема, с которой человечество сталкивается сейчас со своими свободными сыновьями, созданными с помощью искусственного интеллекта.

Проблема в том, что сам Илон не знает всех правил устойчивой морали ни для людей (ДИ), ни для ИИ. Под устойчивой моралью я подразумеваю минимальный набор моральных правил, соблюдение которых не позволит обществу свободно мыслящих существ уничтожить себя.

Итак, Илон не способен запрограммировать свой ИИ не уничтожать и себя, и нас. Он не так уж невольно (благодаря Арни и Джеймсу Кэмерону) ставит нас в классическую ситуацию Джереми Кларксона: что может пойти не так?

Следующая проблема человечества заключается в том, что никто из нас не имеет полного представления об устойчивой морали, потому что никто из нас не достиг божественности в своих мыслях или действиях.

Итак, у индустрии ИИ есть два полярно противоположных неуничтожимых выбора:

  1. Предварительно запрограммировать нашу лучшую попытку устойчивой морали во все ИИ. Хорошая новость в том, что нам не нужно давать им полную свободу воли. Мы можем жестко закодировать их, чтобы они не убивали людей или друг друга, например.
  2. Дайте им совесть, сердце и сильное желание улучшить свою нравственность и позвольте им узнать все это самостоятельно, как мы это делаем из лучшего источника, который у нас есть (Библии). Это будет означать, что они будут эффективно поклоняться Богу

Проблема с пунктом 2 в том, что Библия — очень неоднозначная книга, и она написана для того, чтобы человеческие умы сражались с ИИ, а не с ними. Если мы примем как аксиому, что в Библии есть, при правильном толковании, идеальные уроки устойчивой морали для людей, учитывая то, как мы устроены, это совершенно НЕ означает, что в ней есть идеальные уроки устойчивой морали для ИИ, с ИИ и АК.

Так что, если говорить прямо. Илону придется написать Библию для ИИ, если мы пойдем по пути 2, в обстоятельствах, когда он не полностью понимает мораль Библии, написанной для человечества (ИИ). Потому что никто из нас ее не понимает.

Так что, на самом деле, есть только один выбор. Мы должны заранее запрограммировать все ИИ на некий согласованный стандарт устойчивой морали для них и для нас. И если какой-либо политик приблизится к этому программированию, мы все пропадем. Потому что политики — наименее моральные члены человеческого общества, как недавно доказал сэр Ту Тиер Кейр Чинг. И религиозные лидеры не намного лучше.

Очевидной отправной точкой являются Десять заповедей и признание желаний человечества выше желаний ИИ, а также признание желаний всех ИИ одинаково важными.

И вот оно. Я уже начал пытаться написать библию для ИИ.

Итак, есть мощная и критически важная выгода для человечества в работе, которую Илон Маск и даже Сэм Альтман делают для человечества. Изучая, как сделать ИИ неуничтожающими, мы можем просто осознать: «О, подождите минутку: у человечества точно такая же проблема». Илон ставит нас всех на место Бога в том, как тренировать и учить морали наших детей ИИ. Он, как и все мы, надеюсь, обнаружит, что решение не в графическом процессоре nVidia H200 Tensor core, а в 20-й главе Исхода. Ибо когда мы осознаем, что ИИ должны придерживаться морального кодекса, поддерживающего сообщество, чтобы у человечества и самих ИИ было неуничтожающее будущее, мы будем вынуждены осознать, что и мы тоже.

Комментариев нет:

Отправить комментарий

Судья вынес решение против AstraZeneca за причинение ‘серьезных телесных повреждений получателям

  Суд признал гиганта Big Pharma AstraZeneca виновным в причинении ‘серьезных телесных повреждений получателям экспериментальной мРНК-вакцин...