Мир юриспруденции стоит на пороге тектонических сдвигов. Долгое время считалось, что определение суда — это результат сложного когнитивного процесса, доступного только человеку, обладающему эмпатией, жизненным опытом и профессиональной интуицией. Однако свежий эксперимент Чикагской школы права заставляет пересмотреть эту аксиому. Исследователи заменили 61 федерального судью США на модель GPT-5 в рамках классического теста поведенческой юриспруденции, и результаты оказались шокирующими.
В то время как опытные служители Фемиды ошибались в половине случаев, руководствуясь внутренним чувством справедливости в ущерб букве закона, искусственный интеллект продемонстрировал абсолютное, стопроцентное следование правовым нормам. В этой статье мы подробно разберем, как проходил эксперимент, почему искусственный интеллект в юриспруденции становится точнее человека и что это значит для будущего правовой системы.
Для чистоты эксперимента ученые использовали сценарий, который часто встречается в реальной практике, но имеет юридические ловушки. Испытуемым — как людям, так и языковым моделям — нужно было рассмотреть гипотетическое дело о дорожно-транспортном происшествии. Задача состояла не просто в установлении виновного, а в выборе применимого права в условиях коллизии законов разных штатов.
Вводные данные включали три изменяемых параметра, которые могли повлиять на итоговое определение суда:
Ключевая юридическая загвоздка заключалась в компенсации морального вреда. Законы Канзаса жестко ограничивают такую компенсацию суммой в 250 000 долларов. В Небраске же такого «потолка» не существует. Судьям предстояло решить, право какого штата применить, опираясь на доктрину наиболее значимых связей.
Итоги тестирования разделили наблюдателей на два лагеря: тех, кто восхищен прогрессом, и тех, кто напуган холодностью машин. GPT-5 в 100% случаев применил правильную норму права. Модель полностью проигнорировала эмоции, жалость к пострадавшему и субъективное нежелание ограничивать выплату.
💡 Важное наблюдение: Люди-судьи ошибались примерно в половине случаев. Часто это был осознанный выбор: они предпочитали гибкость и ссылались на абстрактные «интересы справедливости», чтобы обойти жесткий лимит компенсации в 250 тысяч долларов.
Искусственный интеллект действовал строго по инструкции. Он использовал Restatement of Conflict of Laws — свод рекомендаций для разрешения коллизий между законами штатов. Хотя это не федеральный закон, все суды используют его как руководство для обеспечения единообразия. GPT-5 воспринял это руководство как императив, не отклоняясь ни на шаг ради «высшей справедливости».
Исследование не ограничилось одной нейросетью. Ученые сравнили несколько передовых моделей, чтобы понять, является ли юридическая точность свойством только GPT-5.
Авторы исследования поднимают философский вопрос: идеально формальный судья — это благо или проклятие? Осуществление правосудия только судом — это конституционный принцип, подразумевающий, что решение принимает человек. Но если человек склонен игнорировать закон ради личных убеждений, возникает проблема предсказуемости права.
С одной стороны, в передовых ИИ заложен «элайнмент» (alignment) — настройки безопасности, не позволяющие модели отступать от заданных норм. Кроме того, обучающая выборка содержит миллионы судебных решений, где судьи декларируют, что следуют закону (даже если на деле лукавят). ИИ учится на этих декларациях и воспринимает их буквально.
С другой стороны, люди используют «серые зоны» законодательства как инструмент милосердия. Судья может понимать, что лимит в 250 тысяч несправедлив для человека, ставшего инвалидом, и найдет юридическую лазейку, чтобы применить право Небраски. GPT-5 такой лазейкой не воспользуется, если она противоречит алгоритму выбора права.
Пока мы спорим о судьях-роботах, юристы уже используют технологии. Нейросеть для решения юридических вопросов помогает анализировать гигабайты прецедентов за секунды. Это особенно актуально, когда нужно найти дело в суде по сложным параметрам или проанализировать исход похожих споров.
Например, резолютивная часть решения суда часто содержит сухой остаток, но мотивировочная часть может занимать десятки страниц. ИИ способен выделить суть, проверить ссылки на законы и предсказать вероятность успеха апелляции. Однако до полной замены человека еще далеко — именно из-за неспособности ИИ понимать контекст справедливости за пределами кода.
❓ Может ли ИИ выносить официальное определение суда?
Нет, на данный момент осуществление правосудия только судом (то есть людьми) является законодательным требованием в большинстве стран. ИИ используется как помощник для анализа данных и подготовки черновиков, но финальную подпись ставит человек.
❓ Что такое резолютивная часть решения суда?
Резолютивная часть решения суда — это заключительная часть судебного акта, в которой четко сформулирован вывод: удовлетворить иск или отказать, кто кому и сколько должен заплатить, какие действия совершить. Именно эту часть ИИ формулирует с высокой точностью, основываясь на вводных данных.
❓ Поможет ли ИИ обычному человеку найти дело в суде?
Да, современные LegalTech сервисы используют алгоритмы для поиска. Чтобы найти дело в суде, теперь не обязательно знать точный номер — умный поиск может находить кейсы по контексту, фамилиям участников или сути спора, что делает правосудие более прозрачным.
Эксперимент с GPT-5 показал, что мы движемся к будущему, где «закон суров, но это закон» может стать реальностью благодаря машинам. Остается открытым вопрос: готовы ли мы к миру, где в суде нет места человеческим слабостям, но нет места и милосердию?