пятница, 24 ноября 2023 г.

Пентагон представил «ИИ-убийцу», который может автономно убивать людей

 Согласно тревожному отчету Нью-Йорк Таймс.

Такие страны, как США, Китай и Израиль разрабатывают смертоносный искусственный интеллект, которому будет предоставлена ​​возможность убивать граждан без необходимости одобрения человека, отмечает Times.

По мнению критиков, использование «роботов-убийц» было бы антиутопическим событием, доверяющим выбор поля битвы между жизнью и смертью бездушным машинам с нулевым сочувствием.

Thepoliticsbrief.com сообщает: Несколько стран требуют от Организации Объединенных Наций принятия обязательной резолюции, запрещающей использование дронов-убийц с искусственным интеллектом, однако США входят в число немногих стран, в том числе Россия, Австралия и Израиль, которые выступают против любого такого шага.

«Это действительно один из наиболее важных переломных моментов для человечества», — сказал в интервью Александр Кментт, главный переговорщик Австрии по этому вопросу. «Какова роль людей в применении силы — это абсолютно фундаментальный вопрос безопасности, юридический вопрос и этический вопрос».

Согласно уведомлению, выпущенному ранее в этом году, Пентагон работает над развертыванием групп из тысяч дронов с поддержкой искусственного интеллекта.

В августовском обращении заместитель министра обороны США Кэтлин Хикс заявила, что такие технологии, как рои дронов, управляемых искусственным интеллектом, позволят США сбалансировать численность Китайской армии освобождения (НОАК) в вооружении и живой силе.

«Мы будем противопоставлять массе НОАК свою собственную массу, но нашу будет труднее планировать, труднее поразить и труднее победить», сказала она, Reuters сообщил.

Министр ВВС Фрэнк Кендалл заявил The Times, что дроны с искусственным интеллектом должны будут иметь возможность принимать смертоносные решения под наблюдением человека.

Индивидуальные решения и отказ от принятия индивидуальных решений — это разница между победой и поражением — и вы не проиграете,», — сказал он.

«Я не думаю, что люди, с которыми мы можем столкнуться, сделали бы это, и это дало бы им огромное преимущество, если бы мы наложили на себя такое ограничение».

По данным The New Scientist, Украина использовала дроны, управляемые искусственным интеллектом, в конфликте с Россией в октябре, хотя неизвестно, стали ли эти дроны причиной человеческих жертв.

Стюарт Рассел, старший научный сотрудник в области искусственного интеллекта из Калифорнийского университета в Беркли, и другие покажут видео в понедельник во время мероприятия, проводимого Кампанией по прекращению роботов-убийцCampaign to Stop Killer Robots на Конвенции ООН по обычному оружию.

Кампания предупреждает: «Машины не видят в нас людей, а просто еще один фрагмент кода, который нужно обработать и отсортировать. От умных домов до использования роботов-собак полицией, А.И. технологии и автоматизированное принятие решений сейчас играют значительную роль в нашей жизни. На крайнем конце спектра автоматизации находятся роботы-убийцы».

«Роботы-убийцы не появляются просто так — мы их создаем», — говорится в кампании. «Если мы позволим эту дегуманизацию, нам будет сложно защитить себя от машинного принятия решений в других сферах нашей жизни. Нам необходимо запретить автономные системы вооружения, которые будут использоваться против людей, чтобы предотвратить скатывание к цифровой дегуманизации».

По мнению Рассела, создание и применение автономного оружия, такого как дроны, танки и автоматические пулеметы, будет иметь катастрофические последствия для безопасности и свободы человека, и возможность остановить его развитие быстро закрывается.

«Технология, показанная в фильме, представляет собой просто интеграцию существующих возможностей. Это не научная фантастика. На самом деле, этого легче достичь, чем беспилотные автомобили, которые требуют гораздо более высоких стандартов производительности», — сказал Рассел.

В Кампании по запрету роботов-убийц также отмечается, что, поскольку машины с искусственным интеллектом «относительно дешевы в производстве, критики опасаются, что автономное оружие может производиться массово и попасть в руки стран-изгоев или террористов, которые могут использовать его для подавления населения и нанесения ущерба». хаос, как показано в фильме».

«Договор о запрете автономного оружия предотвратит крупномасштабное производство этой технологии», — отмечает BKR. «Это также обеспечит основу для полицейских стран, работающих над этой технологией, а также распространением устройств и программного обеспечения двойного назначения, таких как квадрокоптеры и алгоритмы распознавания целей».

«Профессиональные этические кодексы также должны запрещать разработку машин, которые могут решить убить человека», — сказал Рассел.

В эпизоде ​​«Черного зеркала» 2017 года собаки-роботы-убийцы бродят по земле и безжалостно преследуют людей, которых дроны считают «угрозой».

Создатель запоминающегося эпизода Чарли Брукер объяснил свое видение роботопокалипсиса в интервью Entertainment Weekly.

Брукера спросили, чем он вдохновил эту историю, которую интервьюер представил как нечто среднее между «видео Boston Dynamics на YouTube и «Ночью живых мертвецов».

«Это на самом деле пугающе верно», — сказал Брукер. «Это было после просмотра видеороликов Boston Dynamics, но в сочетании с — вы видели фильм Все потеряно?» Я хотел сделать историю, в которой почти не было бы диалогов. И в этих видео есть что-то очень жуткое, когда их сбивают с толку, и они выглядят довольно жалко, лежа там, но потом им медленно удается встать обратно».

На прошлой неделе полицейское управление Лос-Анджелеса фактически использовало собаку-робота, чтобы положить конец вооруженному противостоянию.

Сотрудник спецназа дистанционно управлял роботом, когда он подошел к автобусу и вошел через вход. Затем он объехал автобус, отправляя офицерам видеотрансляцию в реальном времени.

Динамик робота также использовался, чтобы поговорить с мужчиной и побудить его сдаться. Примерно через час 45 минут парень проснулся и вышел из автобуса, где его задержала полиция.

Искусственный интеллект также используется в воздушных дронах. DroneSense – это программная платформа для дронов общественной безопасности, которая преобразует необработанные данные, собранные дронами, в полезную информацию для полиции, пожарных и других служб экстренной помощи. DroneSense OpsCenter позволяет нескольким пользователям дронов работать вместе, изучать то, что наблюдает каждый дрон, и даже отслеживать траекторию полета дрона в режиме реального времени.

Сотни команд использовали платформу общественной безопасности DroneSense для решения широкого спектра ситуаций, связанных с общественной безопасностью. Программа на базе искусственного интеллекта помогает командам спецназа собирать информацию о месте происшествия, анализировать ущерб после ураганов и торнадо и даже использует тепловизионные изображения для идентификации пропавших без вести людей.

Neurala – это нейронная сеть глубокого обучения, которая помогает дронам искать и идентифицировать людей, представляющих интерес в толпе. Он также может проверять крупное промышленное оборудование, такое как телефонные вышки, и составлять отчет о повреждениях в режиме реального времени. Стартап утверждает, что их программному обеспечению на базе искусственного интеллекта требуется всего 20 минут, чтобы схватить изображение человека и найти его в толпе, а не стандартные для отрасли часы или дни.

Компания Scale использует искусственный интеллект и машинное обучение для обучения дронов работе с аэрофотоснимками. Программное обеспечение машинного обучения помогает дронам идентифицировать, маркировать и наносить на карту все — от жилых домов в сообществе до конкретных объектов, например транспортных средств.

AeroVironment производит автономные военные дроны с искусственным интеллектом. Дроны компании варьируются от незамеченного самолета-шпиона длиной три фута до Switchblade, оснащенного точным боевым оборудованием для военных операций.

Aerovironment производит множество дронов с искусственным интеллектом для различного военного применения. БПЛА компании также используются в сельском хозяйстве для картирования площадей полей, выявления проблем со здоровьем сельскохозяйственных культур и оценки проблем с ирригацией.

Хотя искусственный интеллект, очевидно, является полезным инструментом, который может принести огромную пользу человечеству, он также является опасным оружием, которое можно использовать для навязывания тоталитарного режима населению.

В то время как ядерное оружие было экзистенциальной угрозой человечеству, которую нужно было сдерживать с помощью холодной войны, искусственный интеллект теперь является новой угрозой в век информации.

Потребуется растущее осознание плюсов и минусов ИИ, а также развитие новых институтов для обеспечения прозрачности и подотчетности, чтобы предотвратить злоупотребление ИИ со стороны политиков с целью навязать человечеству репрессивные режимы.

Шон Адл-Табатабай

Шон Адл-Табатабай

Рыцарь Чосон (https://joseon.com)

Комментариев нет:

Отправить комментарий

Северная Корея против оружия НАТО? «Пхеньян поставляет в Россию оружие, которое кардинально меняет правила игры»

  Национальная разведывательная служба Южной Кореи сообщила, что Северная Корея отправляет в Россию не только войска, но и дополнительные во...