Náš pohľad na využitie umelej inteligencie (AI) v informačnom prostredí inštitúcie

Modernosť, funkčnosť, bezpečnosť a dlhodobá udržateľnosť technologickej platformy IT infraštruktúry Kancelárie Najvyššieho správneho súdu Slovenskej republiky. Táto vízia sa od vzniku najvyššieho správneho súdu postupne premieta do budovania interného technologického prostredia, pričom v parciálnej časti ju môže vnímať aj odborná či laická verejnosť, a to či už pri návšteve tunajšieho súdu alebo pri prehľadávaní jeho webového sídla. Z uvedeného hľadiska sa žiada zmieniť najmä aktuálny vyhľadávací systém judikatúry najvyššieho správneho súdu, ktorého ambíciou je v konečnom dôsledku položiť technologický základ novej platformy, reflektujúc i aktuálny rozvoj AI (od začiatku je koncipovaný s ohľadom na jej budúce využitie).

Pokiaľ ide vo všeobecnosti o otázku použitia AI v justícii, tu možno v prvom rade poznamenať, že AI celkom prirodzene preniká do súdnej agendy (sprostredkovane) prostredníctvom podaní účastníkov konania alebo ich právnych zástupcov, napríklad vo forme navrhovaných dôkazných prostriedkov alebo výkladu právnych pojmov generovaného AI (rozhodnutie Mestského súdu v Prahe sp. zn. 10 A 99/2023 z 9. novembra 2023; rozsudok Krajského súdu v Trenčíne sp. zn. 19CoPr/2/2024 z 21. novembra 2024 a iné). Osobitnú pozornosť si pritom vyžadujú situácie, keď predložená argumentácia v podaniach pôsobí na prvý pohľad presvedčivo a odborne, no môže obsahovať odkazy na neexistujúcu judikatúru alebo iné nepresnosti, ktorých overovanie následne neúmerne zaťažuje súd (uznesenie Ústavného súdu Českej republiky sp. zn. I. ÚS 3004/25 z 1. decembra 2025; rozsudok Najvyššieho správneho súdu Českej republiky sp. zn. 3 As 34/2025-80 z 15. apríla 2025, bod 43 a iné).

Na druhej strane ale môže predstavovať AI tiež praktický nástroj pre súdnictvo, a to najmä pri zvládaní nadmerného množstva – vrátane AI generovaných – podaní, identifikácii nejasností a filtrovaní relevantných informácií tak, aby nedochádzalo k ovplyvneniu sudcu pri jeho rozhodovaní. Cieľom nasledovných riadkov je potom venovať sa práve ostatne uvedenému spôsobu možného využitia AI v justícii / na najvyššom správnom súde (t. j. samotnými sudcami či súdnymi úradníkmi pri výkone súdnej právomoci).

Na úvod považujeme za dôležité zdôrazniť predovšetkým tú okolnosť, že zodpovednosť za využitie AI v justícii nie je „len“ na samotných používateľoch AI, ale túto je potrebné vnímať viacúrovňovo. Po prvé je to štát, ktorý je zodpovedný za akékoľvek (prípadne vzniknuté) škody plynúce z používania AI pri výkone súdnej právomoci. Na organizačnej úrovni konkrétnej inštitúcie je to potom štatutárny orgán, ktorý nesie bremeno zodpovednosti, pričom ten sa môže pri určitých typoch systémov AI nachádzať dokonca vo viacerých rolách v zmysle čl. 3 Aktu o AI (a z tohto zaradenia plynie následne rôzna škála povinností). No a naostatok, do tretice, je zodpovednosť aj na už spomínanom konkrétnom používateľovi AI.

Ako pristupuje najvyšší správny súd a jeho kancelária k nasadzovaniu AI (v justičnom prostredí)?

Ešte v prvej polovici roku 2025 sa postupne začal budovať AI governance tím, ktorý sa zaoberá legislatívnymi, technickými a bezpečnostnými požiadavkami kladenými obzvlášť na využitie AI v justícii. Tento prevažne interný tím, vedený vedúcou kancelárie najvyššieho správneho súdu, je zložený z osôb, ktoré zastrešujú otázky spojené s použitím AI z pohľadu informačných technológií, prijatej európskej a navrhovanej vnútroštátnej legislatívy, eticko-právnych aspektov AI, ochrany osobných údajov, práva duševného vlastníctva, AI rizík a systému ich riadenia, či kybernetickej bezpečnosti.

Legitímnou otázkou, ktorú si kladú tak technologickí nadšenci v prostredí justície, ako aj skeptici, je potencionálny vplyv využívania AI na výkon rozhodovacej činnosti súdov a jeho dopad na práva a právne postavenie jednotlivcov a právnických osôb. Bez potreby bližšie rozvíjať otázku vplyvu AI na fungovanie právneho systému ako takého, ktorej skúmanie je predmetom hlbších analýz vo viacerých akademických textoch, je stanovisko súčasného vedenia najvyššieho správneho súdu a jeho kancelárie jednoznačné. Výkon justičnej právomoci v súlade s ústavnými princípmi a relevantnými zákonnými ustanoveniami prináleží výlučne sudcom a konečné rozhodovanie musí byť tak (jeho) ľudskou činnosťou. AI nesmie byť autonómnym autorom meritórneho rozhodnutia a ani nositeľom zodpovednosti za rozhodnutie. To sa však nevylučuje s možným využitím AI pri podporných a asistenčných činnostiach sudcov a súdnych úradníkov, pokiaľ je využitie AI v súlade s regulačnými požiadavkami a prináša v aplikačnej praxi želané zefektívnenie tých-ktorých činností.

Z pohľadu európskej regulácie je pre využívanie AI relevantné predovšetkým nariadenie Európskeho parlamentu a Rady (EÚ) 2024/1689 z 13. júna 2024, ktorým sa stanovujú harmonizované pravidlá v oblasti umelej inteligencie a ktorým sa menia nariadenia (ES) č. 300/2008, (EÚ) č. 167/2013, (EÚ) č. 168/2013, (EÚ) 2018/858, (EÚ) 2018/1139 a (EÚ) 2019/2144 a smernice 2014/90/EÚ, (EÚ) 2016/797 a (EÚ) 2020/1828 (akt o umelej inteligencii) (Akt o AI). Hlavná filozofia Aktu o AI, priamo uplatniteľného vo všetkých členských štátoch EÚ, spočíva v regulačnom prístupe založenom na riziku – presnejšie platí, že čím vyšší rozsah a vyššia intenzita rizík systému AI pre zdravie, bezpečnosť a základné práva chránené Chartou základných práv EÚ, tým viac požiadaviek je pri vývoji a nasadzovaní AI potrebné splniť. V kontexte nasadzovania AI v justícii je obzvlášť potrebné zvážiť, či ak AI spadá do vymedzenej definície systému AI, tento nebude v zmysle čl. 6 ods. 2 v spojení s Prílohou III Aktu o AI považovaný za vysokorizikový systém, t. j. systém AI určený na pomoc pri skúmaní a interpretácií skutkových okolností a práva a pri uplatňovaní práva na konkrétny súbor skutkových okolností. Tu je potrebné mať zároveň na pamäti aj do úvahy prichádzajúce výnimky z vysokorizikových systémov ustanovené v čl. 6 ods. 3 Aktu o AI (napríklad ak je systém AI určený na zlepšenie výsledku predtým dokončenej ľudskej činnosti).

Čo sa týka samotného využitia vysokorizikových systémov AI, toto si vo všeobecnosti vyžaduje splnenie viacerých povinností uvedených v čl. 8 a nasl. Aktu o AI (mimo iných systém riadenia rizík, transparentnosť, vypracovanie a vedenie technickej dokumentácie, ľudský dohľad). V praxi to znamená, že nasadenie takéhoto systému nepredstavuje len technické zavedenie nástroja AI, ale komplexný proces zahŕňajúci riadenie rizík, kontrolu kvality a pôvodu vstupných dát, ich bezpečnú anonymizáciu, priebežné overovanie výstupov, mechanizmy transparentnosti a vysvetliteľnosti, ako aj nastavenie účinného ľudského dohľadu na viacerých úrovniach. Súčasťou návrhu musí byť taktiež schopnosť pracovať s dátami v rôznych režimoch – od anonymizovaných vstupov až po kontrolovanú deanonymizáciu výstupov v oprávnených prípadoch. Systém zároveň musí zabezpečiť plnú auditovateľnosť spracovania, spätnú kontrolu výsledkov a identifikáciu chýb alebo nepresností. Takýto prístup predstavuje výrazne vyššiu technickú aj procesnú náročnosť v porovnaní s bežnými informačnými systémami a vyžaduje kontinuálne monitorovanie a vyhodnocovanie správania systému po jeho nasadení.

Pre úplnosť je vhodné na danom mieste uviesť, že bližšie usmernenia k vysokorizikovým systémom AI sú – za predpokladu, že dotknuté ustanovenia nadobudnú účinnosť 2. augusta 2026 – očakávané zo strany Európskej komisie v priebehu tohto roka. Na európskej úrovni však prebieha novelizačný proces Aktu o AI formou tzv. Digitálneho omnibusu, ktorého výsledkom môže byť aj posun účinnosti ustanovení týkajúcich sa vysokorizikových systémov AI.

Vlastný systém AI – na aké konkrétne účely a prečo kancelária najvyššieho správneho súdu volí interné (on-premise) riešenie AI?

Kancelária najvyššieho správneho súdu vyvíja na určité činnosti svoj vlastný systém AI, budovaný interne ako on-premise riešenie (tak, ako sa to odporúča pre orgány verejného sektora), založené na open-source veľkých jazykových modeloch, ktorý plánuje nasadzovať do informačného prostredia postupne. Určenie činností, ktorých výkon môže AI v rámci inštitúcie zefektívniť, spolu s nastavením fázovania, prebieha predovšetkým na základe informácií získaných z interného dotazníka, ako aj z iných interných podnetov.

Pridanú hodnotu využitia AI vnímame predovšetkým pri sofistikovanejšom vyhľadávaní judikatúry či iných relevantných zdrojov (literatúra, legislatíva), identifikovaní rozporov v judikatórnej línii, štylistickej a gramatickej kontrole predtým vytvorených ľudských výstupov, jazykových prekladoch textov, či prvotnej kontrole splnenia podmienok súdneho konania. Ako je zrejmé z vymenovaného, systém AI teda cielime do podoby asistenčného a podporného systému, za žiadnych okolností nie ako náhradu zákonného sudcu. Konečné rozhodovanie, právne dôvodenie a vyhodnocovanie dôkazov, zostane (a musí zostať) aj naďalej výlučne ľudskou činnosťou.

Pri vývoji AI a jeho nasadzovaní do nášho interného prostredia rešpektujeme okrem vyššie načrtnutých konceptov aj nasledovné princípy:

  • nezávislosť a nezaujatosť sudcu,
  • ochrana súkromia, osobných údajov a citlivých údajov,
  • kvalitné dáta integrované z overených a oficiálnych zdrojov,
  • identifikácia rizík a stanovenie prislúchajúcich opatrení,
  • transparentnosť, vysvetliteľnosť a auditovateľnosť,
  • ľudský dohľad pri vývoji, nasadzovaní i používaní AI.

Je samozrejmosťou, že ešte pred spustením AI bude popri spracovaní technickej a ďalšej súvisiacej dokumentácie prijatá interná smernica o používaní AI. Táto bude dopĺňať existujúci legislatívny rámec, ktorým už v súčasnosti regulujeme používanie licencovanej verzie prekladača právnymi analytikmi.

Už popri samotnej príprave technického riešenia kladieme vysoký dôraz tiež na budovanie AI gramotnosti, ako jednej z požiadaviek Aktu o AI a za týmto účelom podporujeme účasť sudcov a zamestnancov nielen na vzdelávaní u externých poskytovateľov, ale sami usporadúvame prednášky v priestoroch inštitúcie. Do budúcnosti pritom plánujeme zabezpečovať AI školenia predovšetkým prostredníctvom členov interného AI tímu.

No a prečo kancelária najvyššieho správneho súdu volí práve interné (on-premise) riešenie AI? V prvom rade platí, že používanie voľne dostupných nástrojov AI nielen v prostredí justície naráža na zásadné limity z pohľadu dôveryhodnosti, bezpečnosti a kontroly nad spracúvanými údajmi ako i samotnými výstupmi. Verejné a voľne dostupné AI (chatboty) sú založené na všeobecných modeloch trénovaných na rozsiahlych dátach z internetu, pričom ich výstupy predstavujú pravdepodobnostne generovaný text, ktorý nemusí vychádzať z autoritatívnych právnych zdrojov relevantných pre právny poriadok Slovenskej republiky a EÚ. Aj pri správne formulovanom vstupe tak môže dochádzať k nepresnostiam, skresleniam alebo k vytváraniu neexistujúcich právnych odkazov.

Z pohľadu kancelárie najvyššieho správneho súdu je však kľúčová najmä otázka kontroly. Pri externých AI službách nie je možné v plnom rozsahu garantovať, kde a akým spôsobom sú dáta spracúvané, kto k nim má prístup, ako dlho sú uchovávané, ani to, či nie sú následne využívané na ďalší tréning modelov. Takýto model spracovania nie je zlučiteľný s požiadavkami kladenými na ochranu citlivých údajov, dôvernosť súdnych informácií a nezávislosť súdnictva.

I z uvedených dôvodov kancelária najvyššieho správneho súdu zvolila cestu budovania vlastného AI riešenia v režime on-premise, t. j. v rámci vlastnej IT infraštruktúry. Tento prístup umožňuje, aby všetky dáta zostávali výlučne v kontrolovanom prostredí inštitúcie a neboli poskytované tretím stranám. Zároveň umožňuje presne definovať, s akými dátami model pracuje, aké zdroje využíva a akým spôsobom generuje svoje výstupy. Rozhodujúce tiež je, že interné riešenie zároveň poskytuje vysokú mieru auditovateľnosti a predvídateľnosti správania systému. Model je možné priebežne testovať, vyhodnocovať a upravovať tak, aby jeho výstupy zodpovedali požiadavkám právnej praxe a aby nedochádzalo k nežiaducim odchýlkam v jeho správaní. Na rozdiel od externých služieb nedochádza k nekontrolovaným zmenám modelu spôsobeným aktualizáciami zo strany poskytovateľa.

Zvolený prístup tak umožňuje budovať AI presne definovaný a kontrolovaný „pracovný priestor“, v ktorom pracuje len s overenými a relevantnými dátami, rešpektuje špecifiká slovenskej a európskej jurisdikcie a zároveň minimalizuje riziko vzniku nepresných alebo zavádzajúcich výstupov. Dôvodom, prečo kancelária najvyššieho správneho súdu nevyužíva voľne dostupné chatboty nie je teda technologický odpor, ale požiadavka na dôveryhodné, bezpečné a plne kontrolované využívanie AI v prostredí súdnictva.

Relevantné zdroje

Akt o AI

Rozhodnutie Rady (EÚ) 2024/2218 z 28. augusta 2024 o podpise v mene EÚ Rámcového dohovoru Rady Európy o AI a ľudských právach, demokracii a právnom štáte

Usmernenia Európskej komisie pre efektívnosť justície (CEPEJ) z 19. decembra 2025 pre používanie generatívnej umelej inteligencie pre súdy (PDF, 475 KB)

Usmernenia Európskej komisie o vymedzení pojmu „systém umelej inteligencie“ stanovenom v Akte o AI (PDF, 334 KB)

Usmernenia Európskej komisie o rozsahu povinností poskytovateľov modelov AI na všeobecné účely stanovených v Akte o AI (PDF, 594 KB)

Uznesenie Predsedníctva Slovenskej advokátskej komory č. 12/4/2025 z 31. marca 2025 ktorým sa schvaľujú pravidlá používania nástrojov umelej inteligencie v advokátskej praxi v znení Uznesenia Predsedníctva Slovenskej advokátskej komory č. 21/14/2025 zo 6. novembra 2025 (PDF)

Legislatívny proces LP/2026/17 k vnútroštátnemu návrhu zákona o umelej inteligencii a európskej dátovej regulácii a o zmene a doplnení niektorých zákonov