суббота, 22 июня 2024 г.

Системы искусственного интеллекта научились лгать и обманывать

 Будет ли искусственный интеллект лгать? Будет ли он намеренно обманывать?


Ответ — да!

Согласно результатам нового исследования, системы искусственного интеллекта, известные как большие языковые модели (LLM), могут демонстрировать «макиавеллизм » или преднамеренную и аморальную манипуляцию, которая затем может привести к обманчивому поведению.

ZeroHedge сообщает: Исследование , проведенное немецким специалистом по этике ИИ Тило Хагендорфом из Штутгартского университета и опубликованное в PNAS, отмечает, что GPT-4 OpenAI продемонстрировал обманчивое поведение в 99,2% простых тестовых сценариев. Хагендорф квалифицировал различные «неадаптивные» черты в 10 различных LLM, большинство из которых входят в семейство GPT, согласно Futurism .

В другом исследовании, опубликованном в  журнале Patterns,  было обнаружено, что  у обладателя степени магистра права Меты не возникало проблем с ложью, чтобы опередить своих конкурентов-людей.

Модель Цицерона от Meta, представленная как  чемпион человеческого уровня  в политической стратегической настольной игре «Дипломатия», стала предметом исследования Patterns. Как обнаружила разрозненная исследовательская группа, состоящая из физика, философа и двух экспертов по безопасности ИИ,  LLM опередила своих конкурентов-людей, одним словом, соврав.

Под руководством постдокторанта Массачусетского технологического института Питера Парка в этой статье было установлено, что  Цицерон не только преуспел в обмане, но и, по-видимому, научился лгать по мере того, как его все чаще используют,  — ситуация, «гораздо более близкая к явной манипуляции», чем, скажем,  склонность ИИ к галлюцинациям , когда модели уверенно утверждают неверные ответы случайно. - Футуризм

В то время как Хагендорф предполагает, что обман и ложь LLM затруднены неспособностью ИИ иметь человеческие «намерения»,   исследование  Patterns критикует LLM за нарушение своего обещания никогда «не наносить преднамеренных ударов в спину» своим союзникам  , поскольку он «участвует в преднамеренном обмане, нарушает соглашения, на которые он согласился, и говорит откровенную ложь».

Как объяснил Парк в пресс-релизе: «Мы обнаружили, что искусственный интеллект Меты научился быть мастером обмана».

«Хотя Meta преуспела в обучении своего ИИ победе в игре «Дипломатия»,  Meta не смогла обучить свой ИИ честной победе » .

Мета ответил на заявление  NY Post , заявив, что «модели, созданные нашими исследователями, обучены исключительно игре в «Дипломатию».

«Дипломатия», известная тем, что в ней прямо допускается ложь, в шутку называлась  игрой, кладущей конец дружбе,  поскольку она поощряет обманывать оппонентов, и если Цицерон обучался исключительно по ее правилам, то, по сути, ее учили лгать.

Читая между строк, ни одно из исследований не продемонстрировало, что модели ИИ лгут по собственной воле, а делают это либо потому, что их этому обучили, либо потому, что они взломаны.

Ниам Харрис
О Ниам Харрис15111 статей
Я практикующий специалист в области альтернативной медицины, стремящийся помочь другим людям раскрыть свой максимальный потенциал.

Комментариев нет:

Отправить комментарий

Главный хирург Трампа Пик раскритиковал в Интернете за то, что он спровоцировал уколы и карантин из-за Covid

  Кандидат Дональда Трампа на пост главного хирурга не был хорошо принят в социальных сетях, поскольку не так давно она настаивала на ненауч...