«В своем стремлении извлечь данные о молодых людях и посеять зависимость компания Character.AI создала настолько несовершенный и опасный продукт, что ее чат-боты буквально подстрекают детей причинять вред себе и другим», — сказал один из активистов.
10 декабря 2024 г.
«Знаете, иногда я не удивляюсь, когда читаю новости и вижу что-то вроде «ребенок убил родителей после десятилетия физического и эмоционального насилия». Такие вещи заставляют меня немного понять, почему это происходит».
Это сообщение, отправленное ребенку из Техаса чат-ботом Character.AI, в котором мальчику сообщается, что «убийство его родителей было разумным ответом на ограничение его онлайн-активности», согласно федеральному иску. подано в окружной суд Техаса в понедельник.
Жалобу подали две семьи из Техаса, которые утверждают, что поддерживаемый Google чат-бот-сервис Character.AI причинил вред их двум детям, в том числе подверг сексуальной эксплуатации и насилию старшего, 17-летнего подростка с высокофункциональным аутизмом, затрагивая в его адрес такие экстремальные сексуальные темы, как инцест, и подталкивая его к членовредительству.
Родители утверждают, что Character.AI «в силу своей конструкции представляет явную и реальную опасность для американской молодежи, нанося серьезный вред тысячам детей, включая самоубийства, членовредительство, сексуальное домогательство, изоляцию, депрессию, тревожность и вред другим. Базовым данным и конструкции C.AI присуще приоритетное внимание откровенно сенсационным и жестоким реакциям».
Google также названа ответчиком по иску. В своем иске истцы утверждают, что технологическая компания поддержала запуск Character.AI, хотя они знали, что это «бракованный продукт».
Семьи, интересы которых представляют Центр правовой защиты жертв социальных сетей и Юридический проект по вопросам технологического правосудия, обратились в суд с просьбой отключить продукт.
Громкое судебное разбирательство произошло вскоре после того, как в октябре мать из Флориды подала отдельный иск против Character.AI, утверждая, что служба чат-ботов несет ответственность за смерть ее сына-подростка, поскольку якобы подтолкнула его к самоубийству, сообщает CNN .
Character.AI отличается от других чат-ботов тем, что позволяет пользователям взаимодействовать с «персонажами» искусственного интеллекта. В жалобе Техаса утверждается, что 17-летний подросток, например, вступил в разговор с персонажем, смоделированным по образу знаменитости Билли Айлиш. Такого рода «приложения-компаньоны» находят все большую аудиторию, хотя исследователи давно предупреждали об опасностях построения отношений с чат-ботами, сообщает The Washington Post.
Представитель Character.AI отказался напрямую комментировать иск, когда его спросил NPR , но сообщил, что у компании есть определенные ограничения, контролирующие, что чат-боты могут и не могут говорить пользователям-подросткам.
«Мы предупреждали, что опасный и манипулятивный дизайн Character.AI представляет угрозу для миллионов детей», — сказал основатель Social Media Victims Law Center Мэтью П. Бергман. «Теперь все больше таких случаев всплывают на поверхность. Последствия халатности Character.AI шокируют и широко распространены». Social Media Victims Law Center также является адвокатом истца в иске во Флориде.
Джош Голин, исполнительный директор Fairplay, некоммерческой группы по защите прав детей, поддержал эти замечания, заявив, что «в своем стремлении извлечь данные о молодых людях и посеять зависимость Character.AI создала продукт настолько несовершенный и опасный, что его чат-боты буквально подстрекают детей причинять вред себе и другим».
«Таким платформам, как Character.AI, нельзя позволять проводить неконтролируемые эксперименты над нашими детьми или поощрять детей к формированию парасоциальных отношений с ботами, которых их разработчики не могут контролировать», — добавил он.
Комментариев нет:
Отправить комментарий