ИИ снова подрывает доверие: судьи США допускают ошибки в решениях из-за ложных выводов ChatGPT и Claude
Федеральные судьи в США всё чаще используют ChatGPT и Claude для подготовки решений, что приводит к росту ошибок. Эксперты предупреждают: такие решения сложнее оспорить, чем ошибки адвокатов, поскольку они формально обретают силу закона, рискуя подорвать авторитет судебной системы.
Федеральные судьи США массово сталкиваются с последствиями некорректной работы искусственного интеллекта в юридической практике, пишет МК. Если ранее проблемы ограничивались адвокатами, например, оштрафованными за поддельные судебные прецеденты, сгенерированные ChatGPT , то теперь ошибки обнаруживаются в постановлениях самих судей. Так, судья в Нью-Джерси был вынужден переписать решение, где ИИ исказил факты, а его коллега из Миссисипи отказался комментировать источник ошибок в своём вердикте.
Судья Эллисон Годдард, применяющая ChatGPT и Claude для структурирования документов, избегает использования нейросетей в уголовных делах, признавая их ненадежность. Между тем судья Ксавьер Родригес ограничивается поручением ИИ вспомогательных задач — составления хронологий или вопросов адвокатам . Эксперты подчёркивают, что судебные ошибки на базе ИИ опаснее адвокатских: будучи формализованными в решениях, они фактически становятся частью правового поля, а их исправление требует сложных процедур обжалования.
Проблема приобретает международный масштаб. В Великобритании судья Апелляционного суда лорд Джулиан Бирсс публично назвал ChatGPT "чертовски полезным", использовав его для краткого изложения правовых норм в одном из решений. Хотя Бирсс подчеркнул, что лично проверил итоговый текст, судебное руководство Англии и Уэльса официально разрешило применять ИИ для обработки текстов, одновременно предупредив о риске "выдуманных" прецедентов.
Ключевая угроза, по мнению юристов, — "галлюцинации" нейросетей, которые невозможно устранить технически. В 2023 году адвокат Стивен Шварц представил суду сфабрикованные ChatGPT дела, включая несуществующее "Дело Варгезе против China Southern Airlines". Сейчас аналогичные риски возникают при глубинном анализе: ИИ ошибочно трактует контекст правовых норм или подменяет реальные цитаты из решений вымышленными.
Несмотря на это, 30% юристов в развитых странах уже интегрируют ИИ в работу, используя его для проверки документов или анализа договоров. В России Минюст разрабатывает ассистента "Юстину" на базе ИИ, но подчёркивает: нейросети не заменят юристов, особенно в сложных кейсах, где требуется интерпретация норм.
Неконтролируемое применение ИИ снижает доверие к судебной системе. Судья, полагающийся на ChatGPT, рискует делегировать алгоритму то, что требует человеческого суждения: оценку доказательств, толкование законов и справедливость приговора,
— отмечает американский эксперт по юридической этике.
Уважаемые читатели "Царьграда"!
Присоединяйтесь к нам в соцсетях "ВКонтакте" и "Одноклассники".