Страницы блога

воскресенье, 27 июля 2025 г.

Федеральный судья наложил санкции на адвокатов из Алабамы за подачу поддельных ссылок на дела, созданных с помощью ИИ, которые указывают на системные, текущие проблемы ИИ, фальсификацию фактов.

 Основатель OpenAI Сэм Альтман утверждает, что вскоре всё и повсюду начнет использовать искусственный интеллект и большие языковые модели для целых профессий, что приведет к их «исчезновению».

Между тем, люди, которые действительно пользуются этими услугами, включая адвокатов в Алабаме, подвергаются санкциям за распространенный недостаток ИИ/LLM, заключающийся в «галлюцинациях» поддельных цитат и поддельных ссылок.

Федеральный судья в Бирмингеме, штат Алабама, судья Анна Манаско на этой неделе ввела официальные санкции против трех адвокатов из юридической фирмы Butler Snow после того, как они подали юридические документы, содержащие сфабрикованные цитаты из дел, сгенерированные ChatGPT.

Манаско, назначенный в суд президентом Трампом, назвал повестки «полностью выдуманными» и отстранил адвокатов от дела.

Эти документы были частью иска, поданного заключённым, который утверждал, что неоднократно наносил ножевые ранения в исправительном учреждении имени Уильяма Э. Дональдсона. Манаско передал дело в Коллегию адвокатов штата Алабама и обязал адвокатов довести постановление о санкциях до сведения всех текущих и будущих клиентов, а также всех адвокатов противоположной стороны и судов, в которых они принимают активное участие.

Санкции также были наложены на юристов, курировавших тех, кто допустил ошибку, используя ChatGPT. Руководители утверждали, что «просматривали» документы и не заметили поддельных юридических документов, использованных в качестве подкрепления их письменных аргументов.

Иск основан на заявлениях заключённого Фрэнки Джонсона, который утверждает, что тюремная администрация не предотвратила многочисленные нападения, несмотря на предыдущие предупреждения. Джонсон содержится в исправительном учреждении Дональдсон, одной из самых переполненных и жестоких тюрем штата. Фирма Butler Snow, представляющая Департамент исправительных учреждений Алабамы, подала ходатайства по делу, включавшие пять судебных ссылок, призванных подтвердить её аргументы по спорам о сроках заключения и раскрытии информации. При рассмотрении дела ни одно из упомянутых решений не было обнаружено.

РЕКЛАМА

Around the WebВ Интернете

המומחים המומים: הכרית המוזרה שמסייעת לישון כמו תינוקהמומחים המומים: הכרית המוזרה שמסייעת לישון כמו תינוק

תובנות בריאותתובנות בריאות

שתה כוס ביום – עד היום השלישי המכנסיים רפויות. שינוי ניכר!שתה כוס ביום – עד היום השלישי המכנסיים רפויות. שינוי ניכר!

בריאות תובנהבריאות תובנה

1/2 Cup Will Melt Your Belly Fat Like Crazy (Before Bed)1/2 стакана быстро растопят жир на животе (перед сном)

Healthier LivingБолее здоровый образ жизни

Новости последнего месяца также свидетельствуют о том, что при измерении сильная зависимость от ИИ/LLM задерживает когнитивное развитие у своих пользователей , фактически делая их глупее.

Судья более подробно изучил материалы дела и установил, что упомянутые случаи никогда не публиковались, не регистрировались и не регистрировались ни в одной известной юридической базе данных. Они были просто высосаны из пальца.

Один из адвокатов, Мэтт Ривз, позже признал, что использовал ChatGPT для создания ссылок, не проверяя их подлинность. Два старших адвоката, Уильям Р. Лансфорд и Уильям Дж. Крэнфорд, подписали документы, не подтвердив независимо друг от друга их источники.

РЕКЛАМА

Причины «галлюцинаций ИИ», когда он выдумывает ссылки, источники и цитаты, встречаются часто и, по данным New York Times, опубликованным в мае, ситуация ухудшается . У компаний, участвующих в этом процессе, нет внятного объяснения причин. В отчёте Times говорится, что частота галлюцинаций в новых системах ИИ достигала 79% при измерении.

Эксперты утверждают, что причиной этих ошибок является сложный способ обработки информации программами, но они не могут точно объяснить, почему.

По данным Times, даже самые мощные системы искусственного интеллекта по-прежнему выдают ошибки-галлюцинации с показателем 33%.

Судья Манаско отреагировала на действия адвокатов, вынеся им резкое постановление о применении санкций. Она постановила, что предоставление сфабрикованного правового прецедента представляет собой серьёзное нарушение этических норм, и постановила отстранить всех трёх адвокатов от дела.

Кроме того, она распорядилась, чтобы они распространили её решение среди своих профессиональных контактов и клиентов, включая все суды, где они в настоящее время ведут свою деятельность. Хотя она не стала налагать немедленные денежные штрафы, она передала дело в Коллегию адвокатов штата Алабама для дальнейшего дисциплинарного рассмотрения.

Манаско написала, что адвокаты проявили «крайнюю безрассудность», подчеркнув, что обязанность проверять цитируемые материалы лежит на юристе, а не на технологиях. Она выразила обеспокоенность более широкими последствиями подачи ложных цитат в федеральный суд, заявив, что это подрывает общественное доверие и подрывает судебный процесс. В её постановлении подчёркивается, что неправомерное поведение было обусловлено не только использованием ИИ, но и несоблюдением устоявшихся профессиональных норм, требующих тщательной проверки юридических документов.

РЕКЛАМА

Around the WebВ Интернете

Access Low-interest HELOC Funds for Your Home RenovationПолучите доступ к низкопроцентным кредитам HELOC для ремонта вашего дома

8 Reasons Your Car Insurance Rate Changes8 причин изменения тарифа на автострахование

Achieve Total Peace of Mind With Ring DevicesДостигните полного спокойствия с помощью устройств Ring

В громком деле в Нью-Йорке в 2023 году адвокаты, представлявшие истца по спору с авиакомпанией, подали заявление с несколькими несуществующими делами, также сгенерированными ChatGPT. Этот инцидент привёл к судебным санкциям и спровоцировал общенациональную дискуссию о роли искусственного интеллекта в юридической практике.

В последние годы суды и профессиональные ассоциации стали разъяснять, что юристы несут ответственность за любой предоставленный ими контент, независимо от того, использовались ли инструменты искусственного интеллекта. В 2024 году Американская ассоциация юристов опубликовала своё первое этическое заключение об использовании искусственного интеллекта, предупредив адвокатов, что удобство использования таких инструментов не освобождает их от обязанности обеспечивать точность и достоверность судебных документов.

Компания Butler Snow, получившая десятки миллионов долларов из средств налогоплательщиков на защиту тюрем, признала ошибку. Ривз признал свою ответственность и выразил сожаление. Лансфорд, возглавляющий отдел публичного права фирмы, признал, что не смог подтвердить точность ссылок. Компания обязалась внедрить дополнительные механизмы надзора и инициировала внутреннюю проверку последних документов для выявления подобных нарушений.

РЕКЛАМА

Around the WebВ Интернете

המומחים המומים: הכרית המוזרה שמסייעת לישון כמו תינוקהמומחים המומים: הכרית המוזרה שמסייעת לישון כמו תינוק

תובנות בריאותתובנות בריאות

מומחים מופתעים: תה ב-25 דולר שעשוי לסייע בהפחתת שומן – ראה תוצאות מהר!מומחים מופתעים: תה ב-25 דולר שעשוי לסייע בהפחתת שומן – ראה תוצאות מהר!

בריאות תובנהבריאות תובנה

Joint Pain? This 'Oil Trick' Works Like CrazyБоль в суставах? Этот «масляный трюк» работает просто невероятно

Healthier LivingБолее здоровый образ жизни

Правовые эксперты отмечают, что, хотя инструменты ИИ могут обеспечить эффективность на ранних этапах исследования и составления документов, они подвержены ошибкам и ни в коем случае не должны заменять ручную проверку. Эксперты предупреждают, что несоблюдение протоколов должной осмотрительности может привести к профессиональным дисциплинарным взысканиям, общественному порицанию или лишению адвокатской лицензии. Суды всё чаще обращают внимание на использование ИИ при подаче документов и могут начать требовать деклараций о проверке достоверности информации.

Тем временем на этой неделе OpenAI подписала соглашение с британским правительством об использовании ИИ при предоставлении государственных услуг.

Комментариев нет:

Отправить комментарий