Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Судья окружного суда США отозвал свое решение по делу о ценных бумагах биофармацевтической компании после того, как юристы отметили, что в его решении содержатся вымышленные цитаты и другие ошибочные сведения о деле.
Эти ошибки повторяют недочеты, обнаруженные в других юридических делах, которые были связаны с использованием инструментов искусственного интеллекта. В письме, направленном судье Жюльену Ксавьеру Нилсу (Julien Xavier Neals), юрист Эндрю Лихтман (Andrew Lichtman) заявил о наличии “серии ошибок” в решении Нилса об отказе в удовлетворении ходатайства фармацевтической компании CorMedix об отклонении иска.
Эти ошибки в цитировании включают в себя искажение исходов в трех других делах и “многочисленные случаи” использования вымышленных цитат, ложно приписываемых другим решениям. Как сообщает Bloomberg Law, новое уведомление, опубликованное в судебном протоколе в среду, гласит, что “данное решение и распоряжение были внесены по ошибке” и что “впоследствии будет вынесено новое решение и распоряжение”.
Хотя для судов не редкостью является внесение небольших исправлений в решения после вынесения вердикта – например, исправление грамматических, орфографических и стилистических ошибок – серьезные изменения, такие как удаление абзацев или редактирование решений, встречаются редко.
Нет подтверждений того, что в этом деле использовался искусственный интеллект. Тем не менее, ошибки в цитировании несут те же характерные признаки “галлюцинаций” искусственного интеллекта, которые появлялись в других юридических документах, поскольку юристы все чаще обращаются к таким инструментам, как ChatGPT, за помощью в проведении юридических исследований.
Юристы, представляющие интересы основателя MyPillow Майка Линделла (Mike Lindell), были оштрафованы ранее в этом месяце за использование цитат, сгенерированных искусственным интеллектом, а компания Anthropic обвинила своего собственного чат-бота Claude в совершении “неловкой” ошибочной цитаты в своей собственной юридической борьбе с музыкальными издателями – это лишь два из многих примеров, показывающих, что большие языковые модели (LLM) не заменят реальных юристов в ближайшее время.
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...