Новое исследование показывает: искусственный интеллект способен соблюдать нормы права точнее, чем люди. Ученые выяснили, что модель GPT‑5 от OpenAI в тестах по судебным делам демонстрирует безупречное применение закона, в то время как федеральные судьи США выполняют это лишь в половине случаев. Результаты публикует The Register.
Профессор права Чикагского университета Эрик Познер и исследователь Шивам Саран воспроизвели эксперимент, где 61 судья определял, какое право штата применимо в деле о ДТП. GPT‑5 применила нормы права корректно во всех 100% случаев, не допуская ошибок или «галлюцинаций». Для сравнения, судьи следовали букве закона лишь в 52% решений.
Ранее ученые тестировали GPT‑4o на более сложных делах Международного уголовного трибунала по бывшей Югославии. Тогда модель проявила формализм, строго соблюдая прецеденты и игнорируя эмоциональные или личные аспекты дела — в отличие от судей, которые учитывали внеправовые факторы.
По данным экспертов, такие результаты не означают, что судьи «хуже». В тех случаях, когда закон предоставляет стандарты, а не жесткие правила, человеческая дискреция позволяет учитывать моральные, социальные и политические последствия решений. Именно эта гибкость является «силой» судебной системы, подчеркивают Познер и Саран.
Кроме GPT‑5, высокий уровень соблюдения правил показала модель Google Gemini 3 Pro. Другие ИИ продемонстрировали более скромные показатели: Gemini 2.5 Pro — 92%, O4‑mini — 79%, Llama 4 Maverick — 75%, Llama 4 Scout и GPT‑4.1 — по 50%.
Результаты исследования снова поднимают дискуссию о том, можно ли доверять искусственному интеллекту судебным решениям: формализм ИИ обеспечивает точность, но лишает его возможности учитывать человеческий контекст и последствия, которые судья учитывает интуитивно.
источник
уникальность
