ИИ в юриспруденции: как фиктивные документы вносят хаос в судебную систему

В судебных документах, обнародованных на прошлой неделе , стало известно о необычном использовании искусственного интеллекта экс-адвокатом бывшего президента США Дональда Трампа, Майклом Коэном. Коэн, осужденный в 2018 году за уклонение от уплаты налогов и нарушения в финансировании избирательной кампании, признался в использовании генеративного ИИ-чатбота Google Bard для создания ссылок на судебные решения.

Эти ссылки были использованы его адвокатом Дэвидом Шварцем в ходе подачи ходатайства о сокращении срока надзора за Коэном. Однако позже выяснилось, что все ссылки были фиктивными. Судья Джесси Фурман указал на отсутствие упомянутых дел и потребовал объяснений.

Коэн, не являющийся юристом, признался , что не знал об опасностях и возможностях современных технологий в юриспруденции и воспринял Google Bard как расширенный поисковик, а не как сервис генерации контента. Он также выразил удивление по поводу того, что его команда использовала эти ссылки без надлежащей проверки.

Этот случай подтверждает растущее использование ИИ в юридической практике не только в США, но и в других странах. Например, региональный суд Франкфурта в Германии подозревает юридические фирмы в привлечении искусственного интеллекта для увеличения числа исков в массовых делах.

Ранее двое адвокатов из Нью-Йорка были оштрафованы за использование ” data-html=”true” data-original-title=”ChatGPT” >ChatGPT для подготовки документов, включая вымышленные судебные решения, в деле против колумбийской авиакомпании Avianca.

Эти события выявляют потенциальные риски и вызовы, связанные с применением ИИ в юридической сфере, подчёркивая необходимость более глубокого понимания и контроля за использованием таких технологий.

Public Release.