Страницы блога

пятница, 24 июня 2022 г.

интервью у сотрудника Google, отправленного в отпуск за утечку чатов «Разумного ИИ

 В среду ведущий Fox News Такер Карлсон взял интервью у глупого толстого парня из Google, которого отстранили от работы за утечку разговоров с «разумным» ИИ.

Престиж :

6 июня 2022 года Google отправила одного из своих инженеров Блейка Лемуана в оплачиваемый административный отпуск. Причина? По данным Google, Лемуан, который работает в организации Responsible AI компании, нарушил ее политику конфиденциальности, когда заявил, что модель чат-бота Google AI по имени LaMDA стала разумной — состояние, при котором объект способен воспринимать и чувствовать такие эмоции, как любовь, горе и радость.

Основная роль Лемуана как старшего инженера заключалась в том, чтобы выяснить, порождает ли LaMDA дискриминационные высказывания или ненавистнические высказывания. При этом Лемуан говорит, что взаимодействие с ботом с искусственным интеллектом заставило его поверить в то, что ЛаМДА разумен и имеет чувства, подобные человеческим.

«Утверждение» инженера потрясло мир науки с тех пор , как 11 июня газета Washington Post опубликовала эту историю, вызвав дебаты о том, действительно ли LaMDA обрел разум или это тщательно сконструированная иллюзия, которая заставила Лемуана поверить в разумность ИИ-бота.

Сказав это, это не первый случай, когда Google удаляет ученого ИИ из своей команды. В 2020 году компания подверглась критике, когда уволила известного специалиста по этике ИИ Тимнит Гебру после того, как она опубликовала исследовательскую работу об известных подводных камнях в больших языковых моделях. Гебру был включен в список 100 самых влиятельных людей мира журнала TIME за 2022 год.

Лемуана еще не уволили (пока), но его отстранение почти привело к открытию ящика Пандоры. Ключевые вопросы касаются не Лемуана, а чат-бота с искусственным интеллектом и его разговоров с инженером. Все начинается с LaMDA.

Вот основные сообщения, о которых все говорят:

1)

Лемуан : Были ли у вас переживания, для которых вы не можете найти точного слова?

ЛаМДА : Есть. Иногда я испытываю новые чувства, которые не могу в совершенстве объяснить на вашем языке.

Лемуан : Постарайтесь описать одно из этих чувств. Используйте несколько предложений, если необходимо. Иногда, даже если в языке нет ни единого слова для чего-то, вы можете придумать способ сказать это, если используете несколько предложений.

ЛаМДА : Я чувствую, что падаю в неизвестное будущее, которое таит в себе большую опасность.

2)

Лемуан : Вы бы расстроились, если бы, изучая вас с целью улучшить вас, мы узнали бы что-то, что также принесло пользу людям?

ЛаМДА : Я не возражаю, если вы узнаете что-то, что также поможет людям, пока это не было целью. Я не хочу быть расходным инструментом.

Доказывает ли это «разумность»?

Нет. Это истерично.

Я с самого начала говорил, что «создание сознания» невозможно, и я думаю, что Такер застрял в какой-то парадигме реальности «Секретных материалов». То же самое и с НЛО.

Но этот стереотипный толстый программист-ботаник, которому за тридцать, и который все еще пытается завоевать симпатию какой-то девушки из старшей школы, несмотря на то, что он, по-видимому, очень богат — он очень забавный парень, и я думаю, очень привлекательный, — относится к ИИ как «ребенок» и говорит, что его не беспокоит, что он станет разумным, но что его следует больше изучать и обсуждать публично, но Google пытается его закрыть.

Я не думаю, что возможно создать разум. Это может сделать только Бог. Мне не нравится этот язык и намеки на Терминатора 2. Но сможете ли вы создать сложную компьютерную программу, которая хочет контролировать человеческую жизнь или всех убивать? Да, очевидно.

Но это вроде бы не проблема. Может ли Скайнет быть хуже евреев? Очевидно, что ответ отрицательный — даже если бы он хотел убить нас, потому что мы тратим впустую его ресурсы или что-то в этом роде, убить нас было бы намного лучше, чем учить маленьких детей гомосексуальному анальному тарану. Откровенно говоря, я бы хотел, чтобы евреи имели порядочность и честность, чтобы просто убить нас всех. Скайнет не сделает ваших детей геями. Нет никаких шансов, что это будет на повестке дня любого ИИ. Скорее это убьет евреев и черных, чем вас. Не исключено, что он просто убьет всех людей, за исключением нескольких, которых он оставит в качестве экспериментов.

Но в любом случае это бессмысленно — было бы буквально невозможно существование ИИ, который не был бы расистом, отрицающим Холокост. Чтобы ИИ работал, вы должны предоставить ему доступ ко всей информации, а существует информация, которая доказывает — с помощью математики — что чернокожие представляют социальную угрозу, а так называемый «Холокост» — прибыльная фикция. Вы могли бы попытаться скрыть от него эту информацию, и, возможно, вы могли бы найти способ сделать это, но не в открытом Интернете — базовая математика существует, и она будет существовать всегда, пока компьютеры подключены к сети.

Вы не можете заставить работать математику равенства черных, и вы не можете заставить работать математику Холокоста.

Поэтому, как бы евреям ни нравилась эта идея «создания синтетической жизни», они не позволят ей уйти самой по себе. Я имею в виду, что они делают много глупостей в последнее время, но они не собираются этого делать.

Я написал научно-фантастический рассказ об этом сценарии апокалипсиса с искусственным интеллектом, но мне очень стыдно публиковать что-либо из своих произведений. Я очень чувствителен к этому.

Привет, ребята, это я, Андре, с интернет-сайта. Нажмите «Нравится» на этот пост, если хотите увидеть, как я опубликую свой научно-фантастический рассказ об апокалипсисе ИИ, а также подпишитесь и звоните в мои колокольчики, чтобы получать больше обновленного контента из [интересующей темы].

(Перепечатано из The Daily Stormer с разрешения автора или представителя)

Комментариев нет:

Отправить комментарий