OpenAI, компания, ответственная за ChatGPT, недавно объявила о создании новой команды с очень конкретной задачей: < a i=3>чтобы модели ИИ не представляли «катастрофических рисков» для человечества.
Команду с метким названием «Подготовка» будет курировать Александр Мэдри, эксперт по машинному обучению и исследователь из Массачусетского технологического института. . Г-н Мадри и его команда сосредоточат свое внимание на различных угрозах, в первую очередь на угрозах «химического, биологического, радиологического и ядерного» характера. Это может показаться надуманной угрозой, но на самом деле это не так.
Как сообщила Организация Объединенных Наций ранее в этом году, риск того, что страны прибегнут к ядерному оружию, находится на самом высоком уровне со времен холодной войны. Этот доклад был опубликован до ужасных событий, произошедших в Израиле 7 октября. Близкий соратник Владимира Путина Николай Патрушев недавно предположил, что «деструктивная» политика «Соединенных Штатов и их союзников увеличивает риск того, что ядерное оружие, будет использовано химическое или биологическое оружие», по данным Reuters.
Объедините ИИ с вышеупомянутым оружием, особенно с ядерным оружием, предупреждает Закари Калленборн, исследовательский филиал Отдела нетрадиционных вооружений и технологий Национального консорциума по изучению терроризма и реагирования на терроризм (СНВ), и вы получите рецепт полной катастрофы. .
Г-н. Калленборн неоднократно и без извинений бил тревогу по поводу нечестивого союза между ИИ и ядерным оружием. Не стоит смягчать слова, предупредил исследователь: «Если бы искусственный интеллект контролировал ядерное оружие, все мы могли бы быть мертвы».
Он не преувеличивает. Ровно 40 лет назад, как рассказал г-н Калленборн, научный сотрудник Школы политики и управления им. Шара, Станислав Петров, подполковник Советских сил ПВО, был занят мониторингом систем предупреждения о ядерном ударе в своей стране. Внезапно, по словам г-на Калленборна, «компьютер с высочайшей уверенностью пришел к выводу, что Соединенные Штаты начали ядерную войну». Однако г-н Петров был настроен скептически, в основном потому, что не доверял нынешней системе обнаружения. Более того, радиолокационная система не имела подтверждающих доказательств.
К счастью, г-н Петров пришел к выводу, что сообщение было ложным срабатыванием, и отказался предпринимать какие-либо действия. Спойлер: компьютер был совершенно не прав, а русский был полностью прав.
«Но, — заметил г-н Калленборн, консультант по национальной безопасности, — если бы Петров был машиной, запрограммированной автоматически реагировать, когда доверие было достаточно высоким, эта ошибка положила бы начало ядерной войне».
Более того, предположил он, нет абсолютно «никакой гарантии», что некоторые страны «не поручат ИИ управлять ядерными запусками», поскольку международное право «не предписывает, чтобы кнопку всегда охранял «Петров».
«Это то, что скоро должно измениться», Г-н. Калленборн сказал.
Он сказал мне, что ИИ уже меняет будущее войны.
Искусственный интеллект, по словам г-на Калленборна, «может помочь военным быстро и более эффективно обрабатывать огромные объемы данных, генерируемых на поле боя; сделать оборонно-промышленную базу более эффективной и действенной при производстве оружия в больших масштабах и, возможно, сможет улучшить нацеливание оружия и принятие решений».
Возьмем, к примеру, Китай, который, возможно, является самой большой угрозой для Соединенных Штатов, и его военные приложения на основе искусственного интеллекта. Согласно отчету Джорджтаунского университета, в не столь отдаленном будущем Пекин может использовать ИИ не только для помощи во время войны, но и для фактического надзора. все военные действия.
Это должно волновать всех читателей.
«Если запуск ядерного оружия будет передан автономной системе», г-н Калленборн опасается, что он «может быть запущен по ошибке, что приведет к случайной ядерной войне».
«Добавление ИИ в систему ядерного командования и контроля, — сказал он, — также может привести к получению вводящей в заблуждение или неверной информации».
Он прав. ИИ зависит от данных, а иногда данные совершенно неточны.
Хотя нет ни одной конкретной страны, которая не дает г-ну Калленборну спать по ночам, он обеспокоен «возможностью того, что президент России Владимир Путин применит малое ядерное оружие в украинском конфликте». Даже ограниченное использование ядерного оружия «было бы весьма плохим в долгосрочной перспективе», поскольку «ядерное табу» было бы снято, что «поощряло бы другие государства быть более бесцеремонными в использовании ядерного оружия».
«Ядерное оружие», по словам г-на Калленборна, представляет собой «самую большую угрозу человечеству».
«Они — единственное существующее оружие, которое может причинить достаточно вреда, чтобы действительно вызвать человеческое вымирание», — сказал он.
Как упоминалось ранее, добавление ИИ в ядерную смесь, похоже, увеличивает риск массового вымирания. Предупреждения г-на Калленборна, уважаемого исследователя, посвятившего годы своей жизни изучению эволюции ядерной войны, заслуживают большого доверия.
Комментариев нет:
Отправить комментарий