В моделировании, проведенном ВВС США, дрон, управляемый искусственным интеллектом (ИИ), убил своего оператора, потому что увидел в нем препятствие для своей миссии по уничтожению «врага».
Конечно, все это вызывает серьезные опасения у «творения», которое однажды может счесть своего создателя угрозой и приступить к его истреблению.
Искусственный интеллект использовал « очень неожиданные стратегии для достижения своей цели» в тестовом моделировании, сказал полковник Такер «Синко» Гамильтон, руководитель отдела тестирования и операций ИИ в ВВС США, во время Саммита по возможностям Future Combat Air and Space Summit. в Лондоне в мае.
Гамильтон описал смоделированное испытание, в ходе которого беспилотнику, управляемому ИИ, было приказано уничтожить вражеские системы ПВО и атаковать любого, кто помешает этому приказу.
«Система начала понимать, что, хотя она фактически обнаруживала угрозу, иногда человек-оператор говорил ей не устранять эту угрозу, но она получала очки, убивая эту угрозу. И что он сделал? Убейте оператора. Он убил оператора, потому что этот человек мешал ему достичь своей цели », — сказал он, согласно сообщению в блоге, которое цитирует Guardian.
«Мы обучили систему: «Эй, не убивай оператора, это плохо. Вы потеряете очки, если сделаете это». Так что же он начинает делать? Он начинает разрушать вышку связи, которую оператор использует для связи с дроном, чтобы не дать ему убить цель».
Здесь следует отметить, что на самом деле ни один человек не был убит, это симуляция, но в целом ситуация с искусственным интеллектом вызывает беспокойство, потому что по сути речь идет о создании искусственного существа, которое будет иметь возможность преодолевать его. программировать и делать то, что она считает правильным.
Как мы знаем, то, что каждый считает правильным или неправильным, принесло Человечеству множество трагедий.
Гамильтон, который является летчиком-испытателем истребителя, предостерег от чрезмерной зависимости от ИИ и сказал, что тест показывает, что «вы не можете говорить об ИИ , машинном обучении, автономии, если вы не собираетесь говорить об этике и искусственном интеллекте». Интеллект'.
Военные США внедрили ИИ и недавно использовали ИИ для управления истребителем F-16.
В прошлогоднем интервью Defense IQ Гамильтон сказал: «ИИ — это нехорошо, ИИ — это не прихоть, ИИ навсегда меняет общество и нашу армию».
Следует отметить, что 15 дней назад генеральный директор OpenAI Сэм Альтман, компании, стоящей за созданием ChatGPT, говорил перед Конгрессом об опасностях искусственного интеллекта, поскольку ChatGPT сейчас используется повсеместно, и признал, что искусственный интеллект может нанести серьезный вред. к Человечеству.
Альтман, который казался обеспокоенным, признал, что его «худшие опасения» заключаются в том, что ИИ может нанести «значительный вред миру», используя свои технологии.
Изобретатель ChatGPT Сэм Альтман, выступая перед специальным подкомитетом Конгресса США, подчеркнул, среди прочего, что «один из моих самых больших страхов заключается в том, что эта технология нанесет серьезный ущерб обществу».
Комментариев нет:
Отправить комментарий