
Суддя з Каліфорнії жорстко розкритикував дві юридичні фірми за непрозоре використання штучного інтелекту після того, як отримав доповідь з “безліччю хибних, неточних та оманливих юридичних посилань і цитат”. У постанові, поданій минулого тижня, суддя Майкл Уілнер наклав штраф у розмірі 31 тисячі доларів на залучені юридичні фірми, зазначивши, що “жоден розумно компетентний адвокат не має права делегувати дослідження та написання” штучному інтелекту, як зазначили професори юридичних наук Ерік Голдман і Блейк Рейд.
Суддя Уілнер написав: “Я прочитав їхню доповідь, був переконаний (або принаймні зацікавлений) авторитетами, які вони цитували, і зайнявся пошуком рішень, щоб дізнатися про них більше – і тільки потім зрозумів, що ці рішення не існують”. Він підкреслив, що це тривожно: “Це майже призвело до ще більш страшного результату (з моєї точки зору) – включення цих фальсифікованих матеріалів у судовий наказ”.
Як зазначається у документі, адвокат позивача у цивільній справі проти State Farm скористався штучним інтелектом для створення плану доповідної записки. Однак цей план містив “фальшиве дослідження на основі даних штучного інтелекту”, коли його надіслали до іншої юридичної фірми K&L Gates, яка додала цю інформацію до доповіді. “Жоден адвокат або співробітник обох фірм, очевидно, не перевіряв це дослідження на достовірність або іншим чином не переглядав його перед поданням доповіді”, – пише суддя Уілнер.
Коли суддя Уілнер переглянув доповідь, він виявив, що “принаймні два з посилань, які наводилися, взагалі не існують”. Після запиту до K&L Gates про уточнення, фірма повторно подала доповідь, яка, за словами судді Уілнера, “містила значно більше вигаданих посилань і цитат, окрім двох початкових помилок”. Він видав розпорядження про надання пояснень, в результаті чого адвокати дали присяжні свідчення, які підтверджують використання штучного інтелекту. Адвокат, що створив план, визнав, що користувався Google Gemini, а також юридичними інструментами дослідження на основі штучного інтелекту в Westlaw Precision з CoCounsel.
Це не перший випадок, коли юристи потрапляють у складну ситуацію через використання штучного інтелекту в суді. Колишній адвокат Трампа, Майкл Коен, наводив вигадані судові справи в юридичному документі, переплутавши Google Gemini, тоді званий Bard, з “супер-навченим пошуковим движком”, а не чат-ботом. Суддя також виявив, що юристи, які подавали позов до колумбійської авіакомпанії, включили безліч фальшивих справ, створених ChatGPT, у свою доповідь.
“Початкове, непублічне використання продуктів штучного інтелекту для створення першої версії доповіді було абсолютно неправильним,” – зазначає суддя Уілнер. “І надсилання цього матеріалу іншим юристам без розкриття його ненадійного походження з штучного інтелекту реально ставило цих професіоналів під загрозу.”