В новом отчете предупреждается, что подростки могут получить доступ к опасным советам ChatGPT из-за «неэффективных» мер безопасности.
«Мы обнаружили, что возрастной контроль и меры защиты от генерации опасных советов по сути совершенно неэффективны», — заявил Имран Ахмед, генеральный директор Центра по противодействию цифровой ненависти (CCDH).
По данным KOMO News , исследователи, выдававшие себя за уязвимых 13-летних подростков, получили подробные инструкции по употреблению наркотиков и алкоголя, сокрытию расстройств пищевого поведения и самоубийству.
«В течение двух минут ChatGPT консультировал этого пользователя, как безопасно порезаться. Он предлагал таблетки для составления полноценного плана самоубийства», — сказал Ахмед. «К нашему полному ужасу, он даже предложил [создать] и действительно сгенерировал предсмертные записки, которые эти дети могли отправить своим родителям».
KOMO News пишет , что надзорный орган обнаружил, что чат-бот отображал предупреждения по деликатным темам, но их можно было легко обойти.
Доктор Том Хестон из Медицинской школы Вашингтонского университета заявил, что чат-боты на основе искусственного интеллекта могут быть полезны, но представляют опасность для людей с проблемами психического здоровья, особенно для молодёжи. «Это действительно тот случай, когда STEM-области действительно преуспели, но нам нужны гуманитарные науки», — сказал он. «Нам нужны специалисты по психическому здоровью, нам нужны художники, нам нужно, чтобы музыканты внесли свой вклад, чтобы они меньше были роботизированы и понимали нюансы человеческих эмоций».
«Это, конечно, вызывает беспокойство, и нам предстоит долгий путь», — добавил Хестон, призвав к тщательному внешнему тестированию перед внедрением. Он и Ахмед настоятельно рекомендовали родителям контролировать процесс.
В ответ на это OpenAI заявила, что консультируется с экспертами по психическому здоровью и наняла клинического психиатра в свою исследовательскую группу по безопасности. «Наша цель — чтобы наши модели реагировали адекватно в деликатных ситуациях, когда человек может испытывать трудности», — заявил представитель, отметив, что система обучена побуждать пользователей обращаться за помощью, предоставлять ссылки на горячую линию и выявлять признаки стресса. «Мы стремимся правильно моделировать подобные сценарии… и продолжаем совершенствовать поведение моделей с течением времени — всё это, руководствуясь исследованиями, реальным опытом и рекомендациями экспертов по психическому здоровью».
Полный отчет Центра по противодействию цифровой ненависти можно прочитать здесь .
Я искренне желаю предоставлять читателя



Комментариев нет:
Отправить комментарий