Нам говорят, что искусственный интеллект (ИИ) может быть полезен: он может, например, помочь нам кодировать, записывать и синтезировать огромные объемы данных.
Также сообщалось, что они могут перехитрить людей в настольных играх, расшифровать структуру белков и даже вести элементарный разговор.
Но новое исследование показало, что системы искусственного интеллекта уже научились намеренно обманывать нас.
Отчеты TGP : в документе говорится, что ряд систем искусственного интеллекта освоили методы, позволяющие систематически вызывать «ложные убеждения других для достижения какого-либо результата, отличного от истины» .
Бизнес Инсайдер сообщил:
«В документе основное внимание уделяется двум типам систем искусственного интеллекта: системам специального назначения, таким как CICERO от Meta, которые предназначены для выполнения конкретной задачи, и системам общего назначения, таким как GPT-4 от OpenAI , которые обучены выполнять разнообразный спектр задач.
Хотя эти системы обучены быть честными, в процессе обучения они часто учатся обманным трюкам, поскольку они могут быть более эффективными, чем идти по большой дороге.
«Вообще говоря, мы считаем, что обман ИИ возникает потому, что стратегия, основанная на обмане, оказалась лучшим способом хорошо выполнить данную задачу обучения ИИ. Обман помогает им достичь своих целей», — заявил в пресс-релизе первый автор статьи Питер С. Парк, научный сотрудник по экзистенциальной безопасности в области ИИ в Массачусетском технологическом институте».
Только представьте себе это, когда мы знаем, что ИИ-правосудие: Англия и Уэльс разрешают судьям использовать искусственный интеллект для вынесения решений.
CICERO от Meta, разработанный для игры «Дипломатия». Хотя «Мета» утверждает, что научила ЦИЦЕРОНА быть «в значительной степени честным и полезным для своих собеседников», он «оказался искусным лжецом».
Чат-бот GPT-4 притворился, что у него проблемы со зрением, чтобы выполнить задачу: нанять человека для прохождения теста CAPTCHA.
Исправлять обманчивые модели непросто. Как только модели искусственного интеллекта научатся трюкам обмана, методам обучения технике безопасности будет трудно обратить их вспять.
«Они пришли к выводу, что модель не только может научиться демонстрировать обманчивое поведение, но и если это произойдет, стандартные методы обучения технике безопасности могут «не устранить такой обман» и «создать ложное впечатление безопасности».
В документе содержится призыв к политикам выступать за более строгое регулирование ИИ, поскольку вводящие в заблуждение системы ИИ могут представлять значительные риски для демократии».
Комментариев нет:
Отправить комментарий