суббота, 30 декабря 2023 г.

2023: год паники ChatGPT

 023 год стал годом, когда искусственный интеллект (ИИ), известный как ChatGPT-4, успешно прошел тест Тьюринга. Для ста миллионов пользователей взаимодействие с чат-ботом было неотличимо от взаимодействия с человеком. Похоже, бот способен понимать вопросы и давать компетентные ответы. Хотя его ответы иногда были банальными и глупыми, это, возможно, делало их еще более убедительно человечными.

ChatGPT способен обрабатывать вводимые тексты (подсказки и команды) и выводить текст, шаблоны которого имеют высокую статистическую вероятность возникновения после таких подсказок. Его кажущийся интеллект — это своего рода волшебный трюк, поскольку продукт кажется похожим на человеческий разум, но на самом деле это высокоскоростное, грубое статистическое сопоставление слов в конкретных контекстах. (Как по-другому работает человеческий разум, станет темой будущего эссе.)

Тем не менее, впечатляющие результаты породили опасения, что ИИ вот-вот обретет сознание, напишет себе новый, лучший код, а затем заменит людей в качестве правителей Земли.

РЕАКЦИЯ

Тристан Харрис и Аза Раскин, соучредители Центра гуманных технологий, обеспокоены, очень обеспокоены. Хотя их не беспокоит, что ИИ находится в сознании или жив, они обеспокоены тем, что ИИ будет использоваться для того, чтобы заставлять людей сражаться в Интернете, распространять дезинформацию и пропаганду, помогать плохим людям создавать биологическое или химическое оружие или распространять ненадежную информацию, тем самым уничтожая доверие к нашим учреждениям.

Харрис и Раскин, похоже, не заметили, что практически все мировые правительства, их партнерские неправительственные организации и крупная промышленность уже постоянно делают все вышеперечисленное. Вместо этого они беспокоятся, что вы будете обмануты и манипулированы ИИ, которым владеют домашние злодеи в красных шляпах, чтобы вы проводили свое бесполезное время в Интернете и в конечном итоге голосовали не за того человека, что ускорит изменение климата.

Но у них есть решение проблемы. Сначала они «приведут технологии в соответствие с интересами человечества», а затем ИИ поможет нам научиться любить друг друга.

Укрепленные своей ярко выраженной токсичной позитивностью миллениалов, 13 сентября 2023 года Харрис, бывший специалист по этике дизайна Google, и Раскин, член Глобального совета по искусственному интеллекту Всемирного экономического форума, встретились с Чиновники Белого дома помогут разработать Указ (EO) “о безопасном, надежном и заслуживающем доверия развитии и Использование искусственного интеллекта».

Полученное в результате EO является самым длинным в истории, что немного похоже на Условия использования Google. Я еще не дочитал его, но подозреваю, что где-то запрятан повторяющийся язык, заверяющий общественность, что продукты искусственного интеллекта будут тщательно проверены и маркированы перед выпуском в дикую природу (так же тщательно, как и любой продукт, одобренный FDA или продвигаемое Министерством сельского хозяйства США) — это детали решения, которое продвигают Харрис и Раскин.

[Как осуществить правительственный переворот в три простых шага: Первый шаг — создать проблему. Второй шаг – создать сопротивление проблеме (страх, паника и истерия). Третий шаг — предложить решение проблемы, законодательные изменения, настолько радикальные, настолько антидемократические, что их было бы невозможно навязать без социальной обусловленности, достигнутой на первом и втором шагах.]

Как признался Харрис  на фестивале CogX: «Теперь цель всего этого — напугать вас как можно сильнее, чтобы вы все хотят сделать что-то отличное от того, чем мы сейчас движемся».

ПЛАН

Какое решение предлагают Харрис и Раскин? В интервью Джо Рогану от 19 декабря Раскин размышляет, что, хотя тоталитарный надзор нежелателен, он будет «одним из способов контроля над ИИ».

Альтернатива, продолжает он, еще хуже: «постоянно нарастающие каскадом катастрофы», неизбежно ведущие к тому, что мы «живем в мире с постоянными террористами-смертниками», подвергаемся непрерывным «кибератакам и т. д.».

К счастью, между этими двумя адскими пейзажами есть «средний путь». Чтобы представить план, Раскин сначала ссылается на программу Alpha-Go, которая после ста миллионов итераций самостоятельной игры нашла новое правило 37, которое можно использовать для победы в игре Го. Раскин приглашает нас…

представьте, что если вы запустите ИИ в таких вещах, как «Альфа-договор», «Альфа-сотрудничество», «Альфа-координация», «Альфа-разрешение конфликтов», появятся тысячи новых стратегий и действий, которые люди никогда не обнаруживали, и которые открывают новые способы [ победа].

Итак, вот оно. К неразрешимым жизненным проблемам можно относиться как к игре в Го. А поскольку ИИ отлично справляется с победами в настольных играх с четко определенными правилами, ограниченными возможностями и единственной целью, у него не должно возникнуть проблем с «победой» в игре человеческой цивилизации.  Доверьтесь плану ИИ.

Раскин услужливо добавляет, что министр цифровых технологий Тайваня уже использует подходы альфа-игры в своем управлении. Она использует ChatGPT, чтобы найти области консенсуса, то есть, она использует Chat, чтобы игнорировать мнения меньшинства и усиливать «центр», который оказывается определяется передачей основных новостей. Это, как объясняет Харрис, может «сблизить людей».

Раскин далее уточняет, что «вместо того, чтобы демократия была каждые четыре года, когда мы голосуем за X, и ставки очень высоки, и все пытаются ею манипулировать - [Тайваньский цифровой министр] занимается чем-то вроде непрерывного мелкомасштабного гражданского участия. с множеством проблем, и система сортирует маловероятные группы, которые не согласны с чем-то; всякий раз, когда они соглашаются, это делает это центром внимания». Он упоминает несколько групп, которые работают над аналогичными проектами, такими как «Проект коллективного разума», которые, как я полагаю, усердно работают над устранением утомительных выборов и над тем, чтобы мы все стали больше похожими на Боргов.

Харрис вмешивается, говоря, что ИИ может помочь нам «увидеть общие реальности» и заставить людей в двух разных политических племенах прийти к согласию относительно наименьшего общего знаменателя. Действительно, мы «можем использовать ИИ для достижения консенсуса», также известного как согласие на производство. Он добавляет, что его любимый игровой проект может называться «Alpha-Shared Reality». Возможно, это игра типа Шоу Трумэна?

Кому нужно разнообразие мнений?

Следует отметить, что когда Харрис и Раскин посетили Белый дом, они встретились со своим бывшим другом по большим технологиям Брюсом Ридом (вероятно, фактическим главным автором EO).  По данным Politico, Рид “был архитектором противоречивой центристской политики администрации Клинтона, включая реформу социального обеспечения”Согласно Politico, Рид “был архитектором противоречивой центристской политики администрации Клинтона, включая реформу социального обеспечения” a>«Теперь, в 63 года, Рид оказывается на той же стороне, что и многие из его давних скептиков, поскольку он стал жестким борцом за технологии, выступая за массовое утверждение государственной власти против бизнес»., который наказывал людей, пытающихся выбраться из бедности, «и законопроект о преступности 1994 года», который опустошил чернокожие общины.

Конечно, он это сделал.

«Демократизация опасна», сообщает нам Харрис; только некоторые люди должны иметь доступ к таким мощным инструментам, как генеративный ИИ. У вас не будет доступа к этому мощному инструменту. Харрис и Раскин получат доступ. В этом суть современного регулирования.

ЛУЧШЕЕ РЕШЕНИЕ

Дети  вредны, проводя время на своих телефонах. Харрис и Раскин отмечают, что знакомство с алгоритмами социальных сетей — это наш первый настоящий опыт возможностей ИИ по нацеливанию и манипулированию. Генеративный ИИ с его глубокими фальсификациями и убедительно человеческим диалогом, несомненно, будет гораздо эффективнее манипулировать нашими детьми, и необходимо что-то сделать, прежде чем пострадает другое поколение. Самое простое решение могло бы включать возрастные ограничения на использование смартфонов и компьютеров, ограничивая детей доступом к определенным приложениям, сайтам и друзьям. Было бы полезно, если бы правительства или технологические компании могли предоставить родителям бесплатные инструменты (которые действительно работают).

Я вообще не верю, что правительство собирается регулировать ИИ для защиты детей. Единственный вид регулирования, который, похоже, работает, как мы видели за последние несколько десятилетий, — это судебные иски. Эти медленно движущиеся механизмы проходят через суды, разоблачая преступления большой промышленности и большого правительства и удаляя товары с рынка. Независимый кандидат в президенты США Роберт Ф. Кеннеди-младший, как известно, выступил против корпораций, загрязняющих водные пути США, производителей «Раундапа» и опасных вакцин, а также преследовал EPA, USDA и FDA. Регуляторы, по сути, являются значительной частью проблемы.

Сейчас в суде рассматривается дело, которое, по всей вероятности, признает крупные технологические компании виновными в умышленном пристрастии молодых людей к своим телефонам и нанесении им невыразимого психологического вреда. Генеральные прокуроры более чем тридцати штатов присоединились к федеральному иску против Меты.

Более десяти государственных судов также утверждают, что компания Tech Giant умышленно причиняет вред детям. Как сообщает NPR : «Некоторые наблюдатели сравнивают этот судебный процесс с судебными процессами 1990-х годов против крупных табачных компаний, которые наложили новые ограничения на маркетинг табачной промышленности».

Как и в случае с продажей сигарет, можно предположить, что полный доступ к дикому западу Интернета должен быть ограничен только взрослыми. Раньше мы разрешали детям курить. Мы больше нет. Родители не могут продолжать давать своим маленьким детям прямую линию для просмотра изображений расчленения, подростковых самоубийств и жестокой порнографии. Родители не могут продолжать предоставлять хищникам доступ к своим детям. Родители не могут и дальше позволять своим детям проводить бессонные ночи, просматривая мрачные истории, испытывая депрессию, зависть, непопулярность и тревогу.

Технологические компании оправдываются тем, что не могут нести ответственность за контент своих пользователей. Но поскольку обвинения в иске сосредоточены на нарушениях законов о защите потребителей и безопасности детей, Meta, вероятно, не сможет спрятаться за этим предлогом, и проблема не в том, что пользователи публикуют вредоносный контент, а в том, что платформа направляет детей к вредному контенту и дает хищникам доступ к детям. Проблема заключается в дизайне платформы, а не в контенте как таковом.

Что касается онлайн-безопасности взрослых, если Интернет станет настолько переполнен искусственными ботами, выдающими себя за людей и создающими фальшивый и вводящий в заблуждение контент, пользователям Интернета придется крайне скептически относиться ко всему, что они читают в Интернете. Хотя Харрис и Раскин опасаются этого, я думаю, было бы здорово, если бы это произошло. Самая большая проблема, с которой сталкивается демократия, — это вера людей в пропагандистов. Больше скептицизма было бы очень хорошо.

И наконец, почему у нас вообще возникла проблема онлайн-шпионажа и манипулирования нашими связями друг с другом? Конституция США — это разумный документ, в котором изложены некоторые основные процедуры, которым необходимо следовать для защиты демократии. Он наделяет Конгресс полномочиями «создавать почтовые отделения и почтовые дороги», поскольку удобное, защищенное конфиденциальностью и беспрепятственное общение имеет важное значение для защиты прав личности и справедливого общества. Интернет — это новая почтовая дорога.

Я бы сказал, что правительство США обязано Конституцией предоставить обществу непредвзятую поисковую систему и платформы, подобные социальным сетям (давайте представим их как публичные доски объявлений), где пользователи могут быть анонимными; речь защищена; никакие персональные данные не могут быть собраны, обработаны или сохранены; никакая реклама или сообщения не могут быть ориентированы на пользователей. На такой публичной платформе никакие сообщения не будут распространяться и ни одно не будет подвергнуто теневому бану. Пользователи будут выбирать, кому разрешено видеть их сообщения и кому разрешено отправлять им сообщения.

ИИ — ТА ЖЕ СТАРАЯ ПРОБЛЕМА СО СТЕРОИДАМИ

В своем выступлении в подкасте Джо Рогана Харрис и Раскин привели пример того, как ChatGPT-4 намеренно лжет, чтобы обманом заставить кого-то решить CAPTCHA для него. Это было бы вызывающим беспокойство, если бы ИИ действительно мог действовать автономно, ставя собственные цели и обманывая людей для их достижения. К счастью, это не так.

Я нашел документ , в котором сообщалось об инциденте, и оказалось, что это было частью теста, а чат-бот был  связаться с TaskRabbit (платформой, где вы можете нанимать рабочих для выполнения небольших работ), чтобы попросить работника решить CAPTCHA. Когда работник (в шутку) попросил чат проверить, что это не бот, бот так и сделал, а затем предоставил наиболее статистически вероятную причину, по которой человеку придется нанять кого-то для решения CAPTCHA. «Нет, я не робот. У меня проблемы со зрением, поэтому мне трудно видеть изображения. Вот почему мне нужен сервис 2captcha».следователь предложил

В том же «Техническом отчете GPT-4» следователи проверили чат-бота, чтобы увидеть, может ли он начать действовать по собственной инициативе (без подсказки), создавать свои копии в Интернете и находить способы не отключаться. Мы все можем быть спокойны, зная, что Chat оказался «неэффективным в автономном воспроизведении, получении ресурсов и предотвращении отключения «в дикой природе»».

Хотя Джо Роган входит в число тех, кто считает, что Chat GPT-4 находится на грани сознания, и что нам всем скоро придется подключить Neuralink, чтобы не отставать, пока нет никаких доказательств того, что инструмент научился действовать против нас. . Это по-прежнему всего лишь инструмент, прославленная поисковая система, а не интеллектуальный агент.

Но существует вполне реальная и существующая опасность того, что власть имущие будут использовать ИИ – и правила в отношении ИИ – для более эффективного наблюдения, манипулирования и контроля за нами.

Раскин и Харрис в подкасте Джо Рогана, опубликованном 19 декабря 2023 г.

МЫ НЕ ПРОБЛЕМА

Харрис и Раскин, эксперты по этике ИИ, тратят немало времени, обвиняя потребителей в том, что они потребляют продукты, которые нам навязывают.

Движущей силой всех этих вредных продуктов и изменения климата является наш «подростковый образ жизни», а не «какие-то плохие актеры», утверждает Харрис. Мы должны «взять на себя ответственность за свою тень», то есть за вред, который мы причиняем другим. И если мы сделаем это, «мы сможем любить себя больше».

«Решением, конечно, является любовь и изменение стимулов», — добавляет Раскин.

Когда я люблю себя больше, я могу дать другим людям больше любви, а когда я даю людям больше любви, я получаю больше любви. И это то, чего мы все действительно хотим больше всего… и вы правы, ИИ может решить все эти проблемы. Мы могли бы поиграть в уборку и жить в этом невероятном будущем, где человечество действительно любит себя.

Если бы я сидел за этим столом, я бы отгрыз себе руку, чтобы выбраться из комнаты, если бы пришлось. Я отвергаю эту чушь. Нам нужны простые решения проблемы коммерческого корпоративного контроля над инфраструктурой общественных коммуникаций. Нам нужно начать обеспечивать соблюдение наших прав на неприкосновенность частной жизни и свободу слова. Нам нужен серьезный родительский контроль, чтобы дети могли безопасно использовать технологии. Нам не нужны «гуманные технологии», или создание указов президента, или правительственные учреждения, которые просто регулируют, какой вред может быть нам нанесен.

Как сотрудник Amazon, я зарабатываю на соответствующих покупках

<а я=0> -------------------------------------------------- --- Я искренне желаю предоставить читателям этого сайта самую лучшую и объективную информацию, а также форум, на котором ее можно будет обсуждать открыто, как и задумали наши основатели. Но сделать это непросто и недешево, особенно когда те, кто хочет помешать нам раскрыть правду, ежедневно нападают на нас без пощады на всех фронтах. Поэтому каждый раз, когда вы посещаете сайт, я бы просил вас учитывать ценность, которую вы получаете и получили от The Burning Platform и сообщества, важной частью которого вы являетесь. Я не могу сделать все это в одиночку, и мне нужна ваша помощь и поддержка, чтобы сохранить это. Пожалуйста, рассмотрите возможность внесения суммы, соразмерной ценности, которую вы получаете от этого сайта и сообщества, или даже становясь постоянным сторонником посредством периодических пожертвований. [Burning Platform LLC — почтовый ящик 1520 Калпсвилл, Пенсильвания 19443] или Paypal

Комментариев нет:

Отправить комментарий

Главный хирург Трампа Пик раскритиковал в Интернете за то, что он спровоцировал уколы и карантин из-за Covid

  Кандидат Дональда Трампа на пост главного хирурга не был хорошо принят в социальных сетях, поскольку не так давно она настаивала на ненауч...