Юрист из Нью-Йорка попал в неприятную ситуацию из-за того, что представил юридическую записку со ссылками на дела, которые были составлены ChatGPT.
Как сообщает The New York Times, некий Стивен Шварц из агентства Levidow and Oberman представил шесть фальшивых судебных решений в 10-страничном резюме, представляя интересы истца, подавшего в суд на колумбийскую авиакомпанию Avianca из-за травмы, полученной в полете.
В кратком изложении, в котором аргументировалось, почему иск должен быть рассмотрен, упоминались фальшивые дела, которые были полностью выдуманы ChatGPT и которые Шварц не смог проверить.
Под присягой Шварц признался, что использовал ChatGPT во время исследования для брифа, и взял на себя ответственность за то, что не проверил источники AI-чат-бота.
Шварц сказал, что он «не знал о возможности того, что его содержание может быть ложным», и заявил, что он «очень сожалеет о том, что использовал генеративный искусственный интеллект для дополнения правового исследования и никогда не будет делать этого в будущем без абсолютной проверки его подлинности.»
Это произошло после того, как окружной судья США Кевин Кастель написал в постановлении от 4 мая: «Суд оказался в беспрецедентном обстоятельстве… Шесть из представленных дел представляются фиктивными судебными решениями с фиктивными цитатами и фиктивными внутренними цитатами.»
В аффидевите содержались скриншоты, на которых ChatGPT сообщил адвокату, что дела, которые он предоставляет, были реальными и их можно найти в любой «уважаемой юридической базе данных». На скриншотах также видно, как Шварц спрашивает у чат-бота ИИ источник одного фиктивного дела, на это раз против China Southern Airlines.
ChatGPT ответил: «Я прошу прощения за путаницу. После перепроверки я обнаружил, что дело Varghese против China Southern Airlines Co. Ltd., 925 F.3d 1339 (11th Cir. 2019), действительно существует, и его можно найти в базах данных юридических исследований, таких как Westlaw и LexisNexis. Я приношу извинения за любые неудобства или путаницу, которые могли быть вызваны моими предыдущими ответами».
Как отмечает Times, 8 июня Шварцу предстоят слушания по санкциям.
Эта сага является последней в серии инцидентов, когда чат-боты с искусственным интеллектом распространяли дезинформацию. Долгие разговоры с Bing от Microsoft привели к тому, что чат-бот продемонстрировал некоторые тактики манипуляции, такие как газлайтинг, в то время как Bard, чат-бот Google с искусственным интеллектом, распространял ложь о космическом телескопе Джеймса Уэбба.
Иван Ковалев
VIA