Прямой эфир Новости спорта

ChatGPT обманул американских юристов. Из-за ИИ они сослались на несуществующие судебные дела

Юристы использовали ChatGPT для подготовки иска – и очень об этом пожалели.

Двоим американским юристам грозит наказание за использование популярного чат-бота с искусственным интеллектом ChatGPT при подготовке иска, сообщает The Associated Press. Искусственный интеллект "подсказал" им юридические прецеденты, которых на самом деле не было.

Адвокаты Стивен Шварц и Питер Лодука представляли интересы пассажира, получившего травмы во время авиаперелёта. Они должны были составить иск к авиакомпании, сославшись в нём на аналогичные судебные процессы, которые могли бы послужить прецедентами. Шварц решил прибегнуть к помощи ChatGPT, чтобы разыскать информацию о таких делах. Но процессы, о которых ему "рассказал" чат-бот, на самом деле оказались полностью вымышленными – это выяснилось уже на заседании, когда адвокатам пришлось объясняться с судьёй.

Стивен Шварц признался, что ChatGPT предложил ему сослаться на несколько дел об авиационных происшествиях, которые сам адвокат не смог обнаружить при поиске обычными средствами. Юрист решил довериться искусственному интеллекту, не подозревая, что некоторые из этих судебных процессов оказались полностью вымышленными. В ряде случаев ChatGPT упоминал авиакомпании, которых вообще никогда не существовало.

"Я действовал из ложной предпосылки, что этот веб-сайт получил информацию об этих делах из источников, к которым у меня не было доступа. Я не подозревал, что ChatGPT может сам фабриковать примеры судебных дел", – сказал Стивен Шварц на судебном заседании.

Юрист добавил, что "потерпел полный крах", поскольку не проверил корректность информации должным образом, и принёс извинения. По словам Шварца, из-за использования ChatGPT он "пострадал в личном и профессиональном плане", из-за чего чувствует себя униженным. Стивен Шварц заверил, что юридическая фирма, на которую он работал, после этого случая ввела дополнительные правила для адвокатов, чтобы предотвратить повторение таких инцидентов. Второй юрист, Питер Лодука, признал, что полностью доверял своему коллеге и не стал дополнительно проверять информацию, которую тот предоставил.

Судья выразил обоим адвокатам возмущение и заявил, что глубоко разочарован их работой – ведь юристы даже не попытались своевременно скорректировать иск и убрать из него ссылки на несуществующие прецеденты. О том, что в их иске содержится чистый вымысел, представители авиакомпании-ответчика уведомили Шварца и Лодуку ещё в марте. Более того, адвокаты не обратили внимания на откровенные несоответствия в созданной ChatGPT части иска, которые судья назвал "юридической чепухой". Судья зачитал отрывки из иска, наглядно демонстрирующие их бессмысленность с правовой точки зрения.

"Это первый задокументированный случай потенциального профессионального нарушения со стороны адвоката, связанный с использованием генеративного искусственного интеллекта. Он наглядно демонстрирует опасность использования многообещающих ИИ-технологий без осознания связанных с этим рисков", – прокомментировал специалист по цифровой безопасности Дэниел Шин, помощник директора по исследованиям в Центре юридических и судебных технологий при государственном юридическом университете William & Mary Law School в штате Вирджиния.

Какую ответственность понесут юристы, доверившиеся ChatGPT, в ближайшее время определит судья.

Была ли эта статья для вас полезной?
0

  Если вы нашли ошибку в тексте, выделите её мышью и нажмите Ctrl+Enter

  Если вы нашли ошибку в тексте на смартфоне, выделите её и нажмите на кнопку "Сообщить об ошибке"

Популярное в нашем Telegram-канале

Новости партнеров