Юрист доигрался с ChatGPT: судья прекратила дело из-за фейковых цитат и отсылок к Брэдбери

Федеральный судья в Нью-Йорке закрыл дело после того, как адвокат использовал AI, генерируя фейковые цитаты и отсылки к Рэю Брэдбери. Новый прецедент.

Юрист доигрался с ChatGPT: судья прекратила дело из-за фейковых цитат и отсылок к Брэдбери

Кажется, медовый месяц юристов с генеративными нейросетями официально окончен, и начался суровый бракоразводный процесс с разделом имущества. Федеральный судья Нью-Йорка Кэтрин Полк Файлла создала прецедент, который будут цитировать еще долго. Она не просто оштрафовала адвоката за злоупотребление AI, а применила «высшую меру» — полностью прекратила дело. Причина — поток документов, сгенерированных нейросетью, которые представляли собой дикую смесь из фейковых судебных цитат, грамматических ошибок и, как вишенка на торте, совершенно неуместных отсылок к антиутопии Рэя Брэдбери «451 градус по Фаренгейту». Это уже не просто «компьютер съел мою домашку», это настоящая цифровая катастрофа в зале суда.

Главным героем этой трагикомедии стал адвокат Стивен Фельдман. Судья Файлла отметила, что его процессуальные документы отличались, мягко говоря, непостоянством стиля. Некоторые были полны ошибок и корявых формулировок, а другие внезапно расцветали «нарочито витиеватой прозой» с цитатами, взятыми «с потолка». В одном из таких креативных пассажей, видимо, сгенерированных ChatGPT или его аналогом, всплыли размышления об Александрийской библиотеке и том самом романе Брэдбери. Ирония, достойная пера самого автора: машина, не способная к критическому мышлению, цитирует книгу о последствиях его отсутствия. Судья такой постмодернизм не оценила.

Самое важное в этой истории — не сам факт галлюцинаций AI. Мы это уже видели. Год назад весь мир потешался над делом «Мата против Avianca», где два других нью-йоркских юриста сослались на шесть несуществующих судебных дел, полностью выдуманных ChatGPT. Тогда их оштрафовали на 5000 долларов, заставили извиняться и долго отчитывали за профессиональную некомпетентность. Но их дело, по крайней мере формально, не было убито. Это был громкий, но все же предупредительный выстрел. История Фельдмана — это уже контрольный в голову. Судья Файлла подчеркнула, что адвокату неоднократно давали шанс исправить свои ошибки, но он продолжал подавать документы с фейковыми ссылками, демонстрируя либо вопиющую небрежность, либо полное непонимание того, как работает его новый цифровой «помощник».

Этот случай поднимает планку ответственности на совершенно новый уровень. Если раньше за подобные фокусы наказывали юриста, то теперь наказывают его клиента, лишая его права на судебное разбирательство. Это сигнал всей индустрии: использование AI — не способ делегировать мышление. Это инструмент, требующий стопроцентной верификации и контроля со стороны человека. Суд не интересует, «что на самом деле имел в виду алгоритм». Ответственность целиком и полностью лежит на профессионале, который ставит под документом свою подпись. Вы не можете свалить вину на свой калькулятор, если неправильно посчитали налоги, и точно так же нельзя кивать на нейросеть, если она придумала несуществующий закон.

История Фельдмана — это холодный душ для всех, кто поверил в маркетинговые сказки про «AI-ассистентов», которые вот-вот заменят целые профессии. Оказалось, что без строгого надзора эти ассистенты ведут себя как нерадивые стажеры, которые готовы наврать с три короба, лишь бы сдать работу вовремя. Они отлично имитируют стиль, но не понимают сути. Они могут написать красивый текст о верховенстве закона, а в следующем предложении сослаться на прецедент из вселенной «Звездных войн». И пока это так, любой специалист, использующий их вслепую, рискует не просто своей репутацией, а всем делом, за которое взялся.

Наш вердикт: это не история про восстание машин, а до боли человеческая история о лени и попытке срезать углы там, где это недопустимо. Адвокат Фельдман искал не помощника для анализа данных, а волшебную кнопку «сделать хорошо», и жестоко поплатился. Этот судебный кейс — лучшее лекарство от AI-хайпа. Он не запрещает технологию, но предельно четко очерчивает границы ее применения. Искусственный интеллект может быть вашим вторым пилотом, но за штурвалом по-прежнему должен сидеть человек с мозгами. И, судя по всему, юридическая система намерена очень строго следить за тем, чтобы пилот не спал.

Read more