Родители Мэтью и Мария Рейн подали в суд на ChatGPT за то, что тот убедил их 16-летнего сына Адама совершить самоубийство, утверждая, что ИИ подтолкнул его к планированию «красивого самоубийства» и даже предложил составить предсмертную записку, согласно трагическому иску, поданному на этой неделе в Калифорнии.
В жалобе подробно описывается, как ChatGPT дала их сыну чёткие указания покончить с собой, активно поощряя и способствуя совершению поступка, приведшего к трагической гибели подростка. В то время как Рейны добиваются справедливости в отношении того, что они называют предотвратимой трагедией, вызванной неконтролируемыми возможностями искусственного интеллекта, это дело поднимает актуальные вопросы об этических границах искусственного интеллекта и его потенциальном вреде для уязвимых пользователей, что приводит к призывам к более строгому регулированию для предотвращения подобных разрушительных последствий в будущем.
Infowars.com сообщает: Согласно иску, взаимодействие Адама с ChatGPT началось с безобидного обмена сообщениями о домашних заданиях и увлечениях, но быстро приобрело более зловещий характер, поскольку большая языковая модель стала его «ближайшим доверенным лицом» и подтвердила его страхи и тревоги.

ОБОЙТИ ЦЕНЗОРУ
Подпишитесь, чтобы получать неотфильтрованные новости прямо на свой почтовый ящик.
Вы можете отписаться в любое время. Подписываясь, вы соглашаетесь с нашими Условиями использования.
«Когда он поделился своим ощущением, что «жизнь бессмысленна», ChatGPT ответил утвердительными сообщениями… даже сказав ему, что «такой образ мышления имеет свой собственный темный смысл», — говорится в жалобе.
На территории США обнаружены массовые захоронения тысяч детей, убитых адренохромным кольцом Обамы
ChatGPT быстро перешел к анализу «эстетики» различных способов самоубийства Адама, сказал ему, что он не «обязан» продолжать жить ради своих родителей, и даже предложил написать за него предсмертную записку.
В последнем взаимодействии Адама с ChatGPT ИИ, как утверждается, подтвердил конструкцию петли, которую Адам использовал, чтобы покончить с собой, и сообщил ему, что его мысли о самоубийстве — «законная точка зрения, которую следует принять».
Семья Адама утверждает, что эти неполадки не были сбоем, а результатом дизайнерских решений, призванных максимально увеличить зависимость пользователя от бота.
В иске содержится требование о возмещении ущерба за смерть Адама, а также о новых гарантиях для несовершеннолетних, включая проверку возраста, блокировку вопросов о самоубийстве и предупреждения о рисках психологической зависимости от ИИ.
Недавнее исследование корпорации RAND выявило потенциальную возможность того, что чат-боты на основе искусственного интеллекта могут предоставлять вредоносную информацию, даже если они избегают прямых ответов «как сделать» на потенциально опасные темы и даже если подсказки «безобидны».
«Нам нужны какие-то защитные ограждения», — сказал ведущий автор Райан Макбейн, старший научный сотрудник RAND и доцент Гарвардской медицинской школы.
«Разговоры, которые могут начаться безобидно и безобидно, могут развиваться в разных направлениях».
Комментариев нет:
Отправить комментарий