itkvariat

    Юристу грозят санкции за использование недостоверных цитат ChatGPT




    Юрист из Нью-Йорка попал в неприятную ситуацию из-за того, что представил юридическую записку со ссылками на дела, которые были составлены ChatGPT.

    Как сообщает The New York Times, некий Стивен Шварц из агентства Levidow and Oberman представил шесть фальшивых судебных решений в 10-страничном резюме, представляя интересы истца, подавшего в суд на колумбийскую авиакомпанию Avianca из-за травмы, полученной в полете.

    В кратком изложении, в котором аргументировалось, почему иск должен быть рассмотрен, упоминались фальшивые дела, которые были полностью выдуманы ChatGPT и которые Шварц не смог проверить.

    Под присягой Шварц признался, что использовал ChatGPT во время исследования для брифа, и взял на себя ответственность за то, что не проверил источники AI-чат-бота.

    Шварц сказал, что он «не знал о возможности того, что его содержание может быть ложным», и заявил, что он «очень сожалеет о том, что использовал генеративный искусственный интеллект для дополнения правового исследования и никогда не будет делать этого в будущем без абсолютной проверки его подлинности.»

    Это произошло после того, как окружной судья США Кевин Кастель написал в постановлении от 4 мая: «Суд оказался в беспрецедентном обстоятельстве… Шесть из представленных дел представляются фиктивными судебными решениями с фиктивными цитатами и фиктивными внутренними цитатами.»

    В аффидевите содержались скриншоты, на которых ChatGPT сообщил адвокату, что дела, которые он предоставляет, были реальными и их можно найти в любой «уважаемой юридической базе данных». На скриншотах также видно, как Шварц спрашивает у чат-бота ИИ источник одного фиктивного дела, на это раз против China Southern Airlines.

    ChatGPT ответил: «Я прошу прощения за путаницу. После перепроверки я обнаружил, что дело Varghese против China Southern Airlines Co. Ltd., 925 F.3d 1339 (11th Cir. 2019), действительно существует, и его можно найти в базах данных юридических исследований, таких как Westlaw и LexisNexis. Я приношу извинения за любые неудобства или путаницу, которые могли быть вызваны моими предыдущими ответами».

    Как отмечает Times, 8 июня Шварцу предстоят слушания по санкциям.

    Эта сага является последней в серии инцидентов, когда чат-боты с искусственным интеллектом распространяли дезинформацию. Долгие разговоры с Bing от Microsoft привели к тому, что чат-бот продемонстрировал некоторые тактики манипуляции, такие как газлайтинг, в то время как Bard, чат-бот Google с искусственным интеллектом, распространял ложь о космическом телескопе Джеймса Уэбба.


    Иван Ковалев

    VIA





    Подписывайтесь и читайте новости от ITквариат раньше остальных в нашем Telegram-канале !



    Заметили ошибку? Выделите ее мышкой и нажмите Ctrl+Enter!  




    И еще об интересном...
  • Почему современные компьютерные игры используют так много видеопамяти?
  • Почему я не удаляю Twitter (пока)
  • Моя история в Twitter, от начала до конца…
  • Как Microsoft создает Xbox One X - самую мощную игровую консоль в мире (+видео)
  • Почему я вернул Macbook Pro через день использования и что я понял о будущем Apple
  • LG G6: большой тест - обзор
  • МЭСМ – наша точка отсчёта


  • А что вы думаете? Напишите в комментариях!
    Кликните на изображение чтобы обновить код, если он неразборчив



    В комментариях запрещено использовать ненормативную лексику, оскорблять других пользователей сайта, запрещены активные ссылки на сторонние сайты и реклама в комментариях. Уважаемые читатели! Просим вас, оставляя комментарии, уважать друг друга и не злоупотреблять свободой слова. Пользователи, которые нарушают эти правила грубо или систематически, будут заблокированы.

    Полная версия правил

Самое популярное
    
Проверьте скорость вашего интернета!


Что бывало...
Наши друзья
Сервисный центр Five Service

Магазин кабелей и аксессуаров UGREEN

Самоклейкин

Смарт



Юристу грозят санкции за использование недостоверных цитат ChatGPT




Юрист из Нью-Йорка попал в неприятную ситуацию из-за того, что представил юридическую записку со ссылками на дела, которые были составлены ChatGPT.

Как сообщает The New York Times, некий Стивен Шварц из агентства Levidow and Oberman представил шесть фальшивых судебных решений в 10-страничном резюме, представляя интересы истца, подавшего в суд на колумбийскую авиакомпанию Avianca из-за травмы, полученной в полете.

В кратком изложении, в котором аргументировалось, почему иск должен быть рассмотрен, упоминались фальшивые дела, которые были полностью выдуманы ChatGPT и которые Шварц не смог проверить.

Под присягой Шварц признался, что использовал ChatGPT во время исследования для брифа, и взял на себя ответственность за то, что не проверил источники AI-чат-бота.

Шварц сказал, что он «не знал о возможности того, что его содержание может быть ложным», и заявил, что он «очень сожалеет о том, что использовал генеративный искусственный интеллект для дополнения правового исследования и никогда не будет делать этого в будущем без абсолютной проверки его подлинности.»

Это произошло после того, как окружной судья США Кевин Кастель написал в постановлении от 4 мая: «Суд оказался в беспрецедентном обстоятельстве… Шесть из представленных дел представляются фиктивными судебными решениями с фиктивными цитатами и фиктивными внутренними цитатами.»

В аффидевите содержались скриншоты, на которых ChatGPT сообщил адвокату, что дела, которые он предоставляет, были реальными и их можно найти в любой «уважаемой юридической базе данных». На скриншотах также видно, как Шварц спрашивает у чат-бота ИИ источник одного фиктивного дела, на это раз против China Southern Airlines.

ChatGPT ответил: «Я прошу прощения за путаницу. После перепроверки я обнаружил, что дело Varghese против China Southern Airlines Co. Ltd., 925 F.3d 1339 (11th Cir. 2019), действительно существует, и его можно найти в базах данных юридических исследований, таких как Westlaw и LexisNexis. Я приношу извинения за любые неудобства или путаницу, которые могли быть вызваны моими предыдущими ответами».

Как отмечает Times, 8 июня Шварцу предстоят слушания по санкциям.

Эта сага является последней в серии инцидентов, когда чат-боты с искусственным интеллектом распространяли дезинформацию. Долгие разговоры с Bing от Microsoft привели к тому, что чат-бот продемонстрировал некоторые тактики манипуляции, такие как газлайтинг, в то время как Bard, чат-бот Google с искусственным интеллектом, распространял ложь о космическом телескопе Джеймса Уэбба.


Иван Ковалев

VIA





Подписывайтесь и читайте новости от ITквариат раньше остальных в нашем Telegram-канале !



Заметили ошибку? Выделите ее мышкой и нажмите Ctrl+Enter!  




И еще об интересном...
  • Почему современные компьютерные игры используют так много видеопамяти?
  • Почему я не удаляю Twitter (пока)
  • Моя история в Twitter, от начала до конца…
  • Как Microsoft создает Xbox One X - самую мощную игровую консоль в мире (+видео)
  • Почему я вернул Macbook Pro через день использования и что я понял о будущем Apple
  • LG G6: большой тест - обзор
  • МЭСМ – наша точка отсчёта


  • А что вы думаете? Напишите в комментариях!
    Кликните на изображение чтобы обновить код, если он неразборчив



    В комментариях запрещено использовать ненормативную лексику, оскорблять других пользователей сайта, запрещены активные ссылки на сторонние сайты и реклама в комментариях. Уважаемые читатели! Просим вас, оставляя комментарии, уважать друг друга и не злоупотреблять свободой слова. Пользователи, которые нарушают эти правила грубо или систематически, будут заблокированы.

    Полная версия правил
    ITквариат (АйТиквариат) Powered by © 1996-2024