NV Преміум

Чи замінить штучний інтелект суддів

Експерти

15 серпня, 10:53

Сергій Велікданов

Власник небанківської фінансової групи ВСК Груп

Штучний інтелект входить в усі галузі, в тому числі й правову сферу, трансформуючи рутинні процеси. Як цифровий розум змінює юридичну галузь, з якими викликами стикаються юристи й судді та як регулюють ШІ?

Зараз ринок юридичного програмного забезпечення на основі ШІ продовжує розвиватися. Компанія MarketsandMarkets прогнозує зростання частки інвестицій в цей сектор з $3,1 млрд у 2025 році до $10,82 млрд до 2030-го.

Як штучний інтелект трансформував юридичну галузь

У професіях юридичної сфери ШІ почали інтегрувати ще в кінці 1960-х років. Передусім було створено базу даних судової практики та інших юридичних документів, що допомогло розширити пошук та доступ до потрібної інформації.

З часом з’явилися складніші інструменти, що дали змогу оптимізувати робочий час змінити підхід до справ на стратегічний. Наприклад, знаходити документи, які відповідають не лише ключовим словам, а й контексту запитів стосовно конкретного питання, аналізувати та підсумовувати великі обсяги інформації, прогнозувати судові рішення тощо.

З удосконаленням технологій можливості ШІ постійно зростають. Так, за останні роки набрав обертів розвиток генеративних інструментів ШІ, які використовують мовні моделі (з англ. — Large Language Model). З їх допомогою можна створювати юридичні тексти відповідно до запиту, що суттєво оптимізує час. Крім цього, стала реальною діяльність цифрових судів, які пришвидшують врегулювання дрібних спорів стосовно штрафів, боргових позовів тощо.

Чому ШІ помиляється

Передплатіть, щоб прочитати повністю

Нам необхідна ваша підтримка, щоб займатися якісною журналістикою

Перший місяць 1 ₴. Відмовитися від передплати можна у будь-який момент

Один із ключових викликів мовних моделей штучного інтелекту (GPT, Claude, Gemini, LLaMA тощо) — це помилкова чи вигадана інформація. Такі моделі працюють за принципом ймовірного передбачення слів та підбирають формулювання, які якнайкраще впишуться у той чи інший контекст. Якщо у моделі з якихось причин немає доступу до правової бази, вона заповнює прогалину, ґрунтуючись на основі власного тренування, що може призводити до вигадування інформації (галюцинації).

Серед типових проявів таких галюцинацій у юридичній сфері: неправильно інтерпретовані або вигадані судові рішення, цитати, норми чи статті законів, помилки в формулюваннях тощо.

У 2024 році дослідники Стенфордського Університету, зокрема з підрозділу Stanford Institute for Human-Centered Artificial Intelligence, що займається вивченням ШІ, порівняли загальні мовні моделі (такі як GPT-4, Claude) із спеціалізованими, розробленими безпосередньо для фахівців галузі юриспруденції та права (як-от Lexis+ AI, Westlaw AI). Їхньою метою було визначити надійність спеціалізованих юридичних інструментів.

Хоч результати спеціалізованих мовних моделей, порівняно із загальновживаними, включали менший відсоток хибних тверджень, дослідники дійшли висновку, що згенеровані ШІ документи, без відповідної перевірки фахівцем, можуть бути неточними та мати відповідні наслідки.

Помилки під час судових процесів

Інтелектуальні технології дають можливість оптимізувати процеси, підвищити ефективність у сфері права та правосуддя. Водночас юридична практика вже має резонансні кейси, де неправильне використання ШІ призвело до викривлення змісту судових процесів, дисциплінарної відповідальності включно зі штрафами чи виключенням з процесу.

Так, у липні 2023 року у штаті Вайомінг (США) була порушена справа щодо неякісного гіроборда, виготовленого компанією Jetson, та придбаного у гіпермаркеті Walmart, який нібито вибухнув і спричинив загоряння будинку позивачів.

У січні 2025 року адвокати позивачів надали клопотання до суду. Як з’ясувалося, документ вміщував вісім (з дев’яти) посилань на вигадані справи, які були створені внутрішньою спеціалізованою платформою на основі ШІ. Суд, своєю чергою, заборонив подальшу участь адвоката у справі та зобов’язав його сплатити штраф у розмірі $5 тис.

Подібні інциденти із застосуванням ШІ траплялись і в українських залах суду. Так, у січні 2024 року адвокат подав до Верховного Суду заяву про роз’яснення постанови у справі 925/200/22, хоча таке право не передбачене статтею 245 ГПК України. До того ж у своїй заяві він послався на відповідь, яку згенерував Chat GPT, що стосувалась питання вже розглянутого в суді.

Верховний Суд розцінив такі дії як вияв неповаги, вказавши, що заява є необґрунтованою і спрямована на повторний перегляд висновків суду без відповідних підстав. Подібні випадки показують потребу в регулюванні використання розумних алгоритмів у юриспруденції та особливо в контексті судового документообігу. Це запобігатиме зловживанню ШІ та збереже довіру до судової влади.

Як регулюють ШІ у світі: Що може бути корисним для України

На сьогодні низка країн офіційно врегулювали або перебувають в активному процесі встановлення норм використання ШІ у системі права. Визнається, що інтелектуальні технології можуть бути допоміжним інструментом в роботі, однак відповідальність за висновки та зміст документів (правильність цитат, правових посилань, судових кейсів тощо) покладається на юристів і суддів. Так, у Сінгапурі, Великобританії, ЄС та інших юрисдикціях запровадили обов’язкову верифікацію інформації, згенерованої ШI. Адвокатів та сторони судового процесу зобов’язали дотримуватися чітких вимог при використанні ШI у поданих матеріалах.

Наприклад, в Сінгапурі при поданні документів до суду має бути обов’язково додана довідка про те, чи було використано генеративний ШI, який інструмент було застосовано, з якою метою та чи було перевірено його висновки.

Крім цього, оскільки судові документи часто містять персональні дані, закриті матеріали справ або чутливу інформацію, зокрема у Великобританії, їх дозволяється створювати лише у спеціальній захищеній е-системі (eJudiciary), яка використовується безпосередньо судовими органами країни. Вона має обмежений доступ та гарантує безпеку даних.

У 2024 році в Євросоюзі ухвалили перший у світі комплексний регламент щодо штучного інтелекту — Artificial Intelligence Act (або AI Act). Документ стане орієнтиром для європейських країн щодо етичного й безпечного використання ШІ у правосудді. Згідно з положеннями AI Act, використання ШI в судовій системі можливе лише за умови контролю та повної прозорості алгоритмів. Так, ШI-системи, які аналізують чи прогнозують рішення судів, повинні проходити сертифікацію відповідно до норм Євросоюзу. Усі дії інтелектуальної системи повинні бути задокументованими задля можливості перевірки кожного кроку.

У 2025 році Україна приєдналася до Рамкової конвенції Ради Європи зі штучного інтелекту, прав людини, демократії та верховенства права. У документі визначено принципи, що мають лягти в основу законодавства та застосування ШІ-рішень у публічній сфері — повага до людської гідності, прозорість, недискримінація, захист приватності тощо.

Наразі в Україні не затверджено етичні стандарти та норми, які регулювали б використання машинного інтелекту в судочинстві. Насамперед необхідно розробити чіткі правила його застосування (з урахуванням зазначених ризиків та відповідно до загальноєвропейських підходів). Також важливими питаннями є впровадження захищеної платформи та підвищення рівня обізнаності фахівців щодо ШІ-інструментів у судовій системі.

Попри ризики, цифровий розум має колосальний потенціал, особливо там, де людський ресурс обмежений. Зокрема, йдеться про справи малозначного характеру, де швидкість, стандартизованість і ефективність часто важливіші за глибокий юридичний аналіз. Проте це повноцінне питання, що потребує окремого розгляду.

Інші новини

Всі новини