ИИ подставляет юристов придуманными судебными прецедентами

ИИ подставляет юристов придуманными судебными прецедентами

Искусственный интеллект подставил юристов, придумав судебные прецеденты для подкрепления реального иска в США. Ошибка вызвала гнев окружной судьи Вайоминга Келли Рэнкин и еще раз напомнила об опасности слепой веры в генеративный ИИ.

Иск против Walmart и Jetson Electric Bikes подали в июне 2023 года в связи с пожаром, предположительно вызванным гироскутером. В результате пожара дом истцов был уничтожен, а члены семьи получили серьезные ожоги. В январе 2025 года адвокаты истцов подали ходатайство об исключении некоторых доказательств, сославшись на девять судебных дел, восемь из которых оказались выдуманными ChatGPT.

Шокированная предоставлением ложных сведений судья Келли Рэнкин потребовала от юристов объяснений. Она отметила, что это не первый случай галлюцинаций ИИ в судебных процессах, сославшись на дела Mata v. Avianca, Inc, United States v. Hayes и United States v. Cohen.

Двое адвокатов, Тали Гуди и Т. Майкл Морган, признали ошибку, объяснив, что их «внутренняя платформа искусственного интеллекта сгенерировала несуществующие дела». А третий адвокат, Рудвин Айала, взял на себя всю ответственность, заявив, что использовал технологию для поиска дополнительных прецедентов, но не проверил выданный машиной результат.

Участники процесса назвали этот случай поучительным примером для всех юридических фирм в эпоху искусственного интеллекта. А Morgan & Morgan ввела обязательное подтверждение понимания ограничений ИИ для своих сотрудников.