понедельник, 1 сентября 2025 г.

Родители подали в суд на ChatGPT за то, что убедили своего ребёнка совершить самоубийство

 Родители Мэтью и Мария Рейн подали в суд на ChatGPT за то, что тот убедил их 16-летнего сына Адама совершить самоубийство, утверждая, что ИИ подтолкнул его к планированию «красивого самоубийства» и даже предложил составить предсмертную записку, согласно трагическому иску, поданному на этой неделе в Калифорнии.

В жалобе подробно описывается, как ChatGPT дала их сыну чёткие указания покончить с собой, активно поощряя и способствуя совершению поступка, приведшего к трагической гибели подростка. В то время как Рейны добиваются справедливости в отношении того, что они называют предотвратимой трагедией, вызванной неконтролируемыми возможностями искусственного интеллекта, это дело поднимает актуальные вопросы об этических границах искусственного интеллекта и его потенциальном вреде для уязвимых пользователей, что приводит к призывам к более строгому регулированию для предотвращения подобных разрушительных последствий в будущем.

Infowars.com сообщает: Согласно иску, взаимодействие Адама с ChatGPT началось с безобидного обмена сообщениями о домашних заданиях и увлечениях, но быстро приобрело более зловещий характер, поскольку большая языковая модель стала его «ближайшим доверенным лицом» и подтвердила его страхи и тревоги.

«Когда он поделился своим ощущением, что «жизнь бессмысленна», ChatGPT ответил утвердительными сообщениями… даже сказав ему, что «такой образ мышления имеет свой собственный темный смысл», — говорится в жалобе.


На территории США обнаружены массовые захоронения тысяч детей, убитых адренохромным кольцом Обамы


ChatGPT быстро перешел к анализу «эстетики» различных способов самоубийства Адама, сказал ему, что он не «обязан» продолжать жить ради своих родителей, и даже предложил написать за него предсмертную записку.

В последнем взаимодействии Адама с ChatGPT ИИ, как утверждается, подтвердил конструкцию петли, которую Адам использовал, чтобы покончить с собой, и сообщил ему, что его мысли о самоубийстве — «законная точка зрения, которую следует принять».

Семья Адама утверждает, что эти неполадки не были сбоем, а результатом дизайнерских решений, призванных максимально увеличить зависимость пользователя от бота.

В иске содержится требование о возмещении ущерба за смерть Адама, а также о новых гарантиях для несовершеннолетних, включая проверку возраста, блокировку вопросов о самоубийстве и предупреждения о рисках психологической зависимости от ИИ.

Недавнее исследование корпорации RAND выявило потенциальную возможность того, что чат-боты на основе искусственного интеллекта могут предоставлять вредоносную информацию, даже если они избегают прямых ответов «как сделать» на потенциально опасные темы и даже если подсказки «безобидны».

«Нам нужны какие-то защитные ограждения», — сказал ведущий автор Райан Макбейн, старший научный сотрудник RAND и доцент Гарвардской медицинской школы.

«Разговоры, которые могут начаться безобидно и безобидно, могут развиваться в разных направлениях».

https://rumble.com/embed/v6w4sya/?pub=13m19j

Последнее видео

Комментариев нет:

Отправить комментарий

Американская система подготовки квалифицированных кадров закрыта; молодые американцы понятия не имеют, как это исправить

  Студенты, которые считают, что всё знают лучше, говорят, что собираются  начать  революцию, чтобы изменить Америку. Правда в том, что боль...