Naše názory

JUDr. Tomáš Sokol

Roboti a trestní odpovědnost

Většina z nás se poprvé s robotem setkala, když si četla Čapka. To bylo, alespoň z mého pohledu, tak dávno, že nikoho nenapadlo, že by nějaká taková potvora mohla doopravdy existovat. To se potom dost dramaticky změnilo.

Úvodem bych rád poznamenal, že jestli bylo v rámci předchozího příspěvku (pozn. red.: na kongresu Právní prostor) přednášejícímu poděkováno za to, že poskytnul publiku bod rovnováhy, rozhodně jsem si jistý tím, že já vám ho seberu. Alespoň tedy pokud jde o oblast robotů a trestní odpovědnosti.

Téma je to docela zajímavé v tom, že k němu existuje obrovská spousta literatury, ale jak jsem shledal, v podstatě jen nastiňuje problém, aniž by přicházela s nějakým opravdu konkrétním řešením. A to tedy podotýkám obecně v oblasti odpovědnosti za činnost robotů. A už vůbec nebo naprosto minimálně se odborná literatura, články, doporučení, zprávy příslušné komise Rady Evropské unie zaměřuje na trestní odpovědnost. I když, jak si troufám říct, jde o pravděpodobně velmi aktuální téma.

Trestněprávní rozcvička

Předpokládám, že v publiku jsou vesměs právníci, kteří základní pojmy znají, ale menší rozcvička nemůže škodit. I vrcholoví sportovci se před výkonem rozcvičují. Proto jsem si připravil cosi jako trestněprávní rozcvičku základních pojmů, které podle mého názoru, s nastíněným problémem dosti silně souvisí.

V první řadě je to tedy právní odpovědnost, resp. trestněprávní odpovědnost. Jde v podstatě o povinnost nést důsledky svého jednání. Otázka tedy zní, jaké důsledky jednání v případě robotů vlastně přicházejí v úvahu.

Další část k zopakování – objektivní stránka trestného činu. Tady už jsme někde, kde možná někteří z vás už dávno nebyli. Objektivní stránku představuje jednání, následek a příčinný vztah. A teď jsme u jednoho z problémů. Následek je jasný, protože abychom mohli hovořit o nějaké odpovědnosti, musí existovat následek. Ale čího jednání a jaký je příčinný vztah? Tady se dostáváme k tomu, co je, řekl bych, základem problematiky související s využíváním robotů (podotýkám robotů na nějaké úrovni, záhy se k tomu dostaneme, o jakou úroveň by alespoň muselo jít). Nevíme totiž, kdo jednal. Vždy půjde o nějakou kombinaci jednání, interakci člověka a robota, ať už bezprostřední, tedy že člověk robota nějakým způsobem ovládá, zapíná, vypíná, úkoluje, anebo vzdálené, dané tím, že robota někdo vytvořil, naprogramoval atd. Zde už je tedy otázkou, jaké jednání vlastně mělo být objektivní stránkou trestného činu nebo obecně trestní odpovědnosti.

Další část rozcvičky se týká nedbalostního jednání. V této přednášce v zásadě obcházím možnost úmyslných protiprávních jednání. Sice se o nich také hovoří, ale je to jiná kategorie problematiky robotů, protože jde o zneužívání robotických systémů. Tam už můžeme alespoň teoreticky vysledovat jednání směřující odněkud někam, i když jiná věc je, do jaké míry ho lze prokazovat. Pro účely tohoto příspěvku je tedy zásadní právě nedbalost. 

Co (nebo kdo) je to robot

Většina z nás se poprvé s robotem setkala, když si četla Čapka. To bylo, alespoň z mého pohledu, tak dávno, že nikoho nenapadlo, že by nějaká taková potvora mohla doopravdy existovat. To se potom dost dramaticky změnilo.

Definic robota je poměrně mnoho, vybral jsem si dvě z nich. První je z Wikipedie, což je takový obecně přístupný zdroj: "Stroj pracující s určitou mírou samostatnosti, vykonávající určené úkoly, a to předepsaným způsobem a při různých mírách potřeby interakce s okolním světem a se zadavatelem: Robot je schopen své okolí vnímat pomocí senzorů, reagovat na něj, zasahovat do něj, případně si o něm vytvářet vlastní představu, model. Vnímáním světa nejenže může poznávat svět samotný, ale může také vyhodnocovat svůj vliv na něj a využívat tak zpětnou vazbu. Robot je fyzickou realizací obecnějšího pojmu agent."[1]

A to je to, z čeho celá problematika vychází a na které stojí.

Druhá je definice ISO: "Ovládaný mechanismus programovatelný ve dvou nebo více osách s určitým stupněm autonomie, který se pohybuje ve svém prostředí a plní určené úkoly."[2] 

To jsou dvě různé funkce. Neříkám, že jde vyslovený kontrast – stupeň autonomie versus plnění určitých úkolů – ale záleží na tom, do jaké míry se robot chová autenticky a autonomně, a do jaké  a plní určené úkoly. Všichni známe nejrůznější katastrofické scénáře toho, jak se robot „zblázní“, jak dělá něco, co se od něj nečekalo atd.

Robot a jeho „vůle“

Nyní se pojďme podívat na něco, co s tím zdánlivě vůbec nesouvisí, a to je otázka determinace, tedy vůle. Především je třeba předeslat, že o absolutně svobodnou vůli asi nemá nikdo či nic (mluvíme-li o robotech a nikdy. Vůle je podřazena sumě alternativ chování. Na strom mohu svobodně a ze své vůle vylézt v lese, ale ne na poušti., není-li v dosahu oáza. To je dost důležité pro úvahu, co robot vlastně je zač, do jaké míry je indeterminován, a do jaké míry je determinován. Někteří autoři říkají, že lidské jednání je předurčeno, determinováno vnitřními nebo vnějšími příčinami a danostmi, a to je determinismus. Indeterminismus je samozřejmě jeho opak.

Podle některých autorů je člověk tvorem a osobou s indeterministickým způsobem působení na vnější svět, naopak autonomní stroj s umělou inteligencí je věcí s deterministickým působením na vnější svět.[3]

Z toho by tedy vyplývalo, že člověk je, pokud jde o své reakce, zcela svobodný a volný, zatímco autonomní stroj už je nějak naprogramován, takže tedy fakticky víme, co bude dělat. To je samo o sobě dost věcí diskuse, protože i lidé, zdánlivě svobodně jednající, jednají na základě výběru nějaké alternativy, která jim v dané situaci a pro řešení daných problémů připadla jako nejlepší. To, že se, lidově řečeno netrefí a zvolí špatnou alternativu je všeobecně známo. Právníci zejména, protože jsme tady mimo jiné proto, abychom napravovali důsledky katastrofálních voleb špatných alternativ.

Na druhou stranu existují již i autonomní stroje, jako počítač AlphaZero, které byly do té míry naprogramovány, že byly schopny se sami naučit, sami si vytvořit alternativy svého chování. Otázka zní, jestli v této rovině byl počítač AlphaZero determinován, nebo již o determinaci nejde, protože si mohl vybírat z toho, co se sám naučil.[4]

Předpokladem odpovědi na otázku, jestli je stroj determinován, nebo není, případně do jaké míry,  je znalost alternativ – jaké a kolik jich má, a jak je schopen v rámci řešení určitého problému alternativy volit. To je však opět problém, protože to už často nikdo neví. Autonomní stroje jsou od určité úrovně (a já jsem tady použil příklad, který je takový mírumilovný, zajímavý) schopny si nacházet svoje vlastní řešení, na které člověk nikdy nepřijde, respektive zatím nepřišel, a to je přesně důvod, proč mohou být například lepšími šachisty než někdo jiný. Tento příklad je úplně markantní – i šachista se samozřejmě snaží nalézt ze všech možných alternativ daného stavu šachové hry tu pro něj nejlepší, která směřuje k vítězství, ale nezvládne to tak dobře jako počítač nebo robot. Možností je nějaký limitovaný počet, ale robot to ví jednoduše lépe.

Je tedy robot determinovaný nebo je indeterminovaný? To je nesmírně důležité pro zodpovězení otázky, do jaké míry lze vést úvahu o odpovědnosti za to, co robot "udělal", za následky jeho činnosti. Byl robot determinovaný, tzn. byla tam nějaká konečná suma alternativ chování a špatnou alternativu zvolil ten, kdo robota nějakým způsobem ovlivnil, anebo byl indeterminovaný a mohl si, lidově řečeno, dělat víceméně, co chtěl? Tzn. že si mohl nalézt i naprosto nečekanou alternativu jednání, se kterou nikdo, pokud jde o jeho výrobce, uživatele, majitele, provozovatele, to je jedno, jak ho nazveme, prostě vůbec nepočítal. Pak už by se samozřejmě těžko dalo hovořit o odpovědnosti za nějaký následek, za nějaké porušení, když dopředu nikdo nevěděl, co ta věc vlastně provede.

A nyní jsme u toho, co vyplývá z odborné literatury. Protože zatím se to všechno tvářilo tak, že robot je vlastně předvídatelný, že má omezený počet možností řešení určité situace či určitého problému. Už se však objevil i opačný názor, a jeho autor není jediný: "Prvním významným znakem autonomního systému je proto jeho nízká kontrolovatelnost a obtížné zabránění nepředvídanému nežádoucímu chování. Pokud určitý systém pracuje skutečně autonomně, jeho vlastník či provozovatel (zjednodušeně řečeno ten, kdo ho „vypustil do světa“), zpravidla nemůže kontrolovat, jakým datovým vstupům bude vystaven. Například majitel autonomního vozidla nemůže ovlivnit, jaká bude podoba a obsah dopravního značení, se kterým se vozidlo setká. Tyto datové vstupy přitom nemusí ovlivnit jen aktuální chování autonomního systému (např. vozidlo může způsobit dopravní nehodu na základě chybného či úmyslně upraveného dopravního značení), ale také jeho chování v budoucnu."[5]

Odpovědnost za „jednání“ robota

Já vám k uvedenému položím jednu jedinou otázku. Co tedy dělat se strojem, který jsme uvedli do provozu a předem říkáme, že má nízkou kontrolovatelnost, respektive že je obtížné zabránit nepředvídanému nebo nežádoucímu chování? 

V rovině civilního práva už se to "řeší" tak, že by zde měla být nějaká objektivní odpovědnost za následek v podobě nějaké finanční odpovědnosti – povinnosti sanovat následky onoho jednání. To ale v trestní rovině dost dobře nejde.

Lidstvo již v podstatě vypustilo do světa spousty robotů, o kterých otevřeně říká, že jsou v podstatě nepředvídatelní v tom, co učiní, co provedou. A teď se ještě jednou podívejme na další část citace uvedené výše: "Například majitel autonomního vozidla nemůže ovlivnit, jaká bude podoba a obsah dopravního značení, se kterým se vozidlo setká." Vlastník auta tedy řídí pomyslný autonomní automobil, a podotýkám, že už je do značné míry máme je i u nás, který má určité vlastnosti, způsoby jednání, které jsou automatizované a do jisté míry ještě navíc nepředvídatelné. Už teď mohu říct, že vzadu na kapotě mého auta, které má automatickou, robotickou brzdu reagující na přiblížení překážce, aby nenarazilo při couvání, je zřetelná stopa. Po asi tisíci úspěšných couváních systém jednou selhal a auto narazilo do sloupu. Tedy formálně jsem narazil já. Zcela nepředvídaně ale i nepředvídatelně, protože dle manuálu i dlouhodobé zkušenosti mělo auto samo zabrzdit. Nezabrzdilo a naštěstí do kromě lehce promáčklých zadních dveří nemělo žádný škodlivý následek. Ale kdyby vzadu nebyl sloup ale jiné auto nebo dokonce člověk a v důsledku selhání systému by vznikla škoda, kdo by za ní odpovídal? Míním v rovině trestního práva.

Takže to je první skutečnost, která rozostřuje standardní paradigma odpovědnosti, protože to se vždycky vztahovalo k tomu, že jednání je u duševně zdravého dospělého člověka předvídatelné a ovládnutelné. A lze tedy požadovat, aby se takový člověk choval určitým způsobem, tedy ukládat mu povinnosti. A tak lze i dospět k závěru, jaké mělo být správné jednání a kdo je odpovědný za to, že správné nebylo (s výjimkou vis maior, ale to se na tento případ nevztahuje).

Další, co jsem si vypůjčil z obrovské masy různé literatury, je „Studie možných nástrojů Rady Evropy pro řešení problémů umělé inteligence a trestního práva“. Vybral jsem si pasáž, která se přímo týká problematiky nehod motorových vozidel:

Příklad automatizace řízení je obzvláště výmluvný, pokud jde o trestní odpovědnost za AI;  

Pokud je v době nehody v prostoru pro cestující ve vozidle provozovaném v režimu automatizované jízdy přítomen provozovatel, vyvstává otázka, kdo je trestně odpovědný. 

Zatímco tradičně byly často relevantními faktory nepřiměřená rychlost a požití alkoholu nebo drog řidičem, dnes již nejsou v těchto případech jedinými relevantními faktory. Dokonce i v případě, že technologie použitá pro automatizace řízení jeví jako závadná, neexistuje jednoduchá odpověď na otázku trestní odpovědnosti v případě použití systémů umělé inteligence. 

Segment robotického řízení vozidel je z mého pohledu zajímavý proto, že využití robotů je nesporně mnohem širší, ale předpokládám, že pro většinu z nás jsou nejpředstavitelnější roboti v podobě toho, co v současné době pomáhá ovládat motorová vozidla. Jsou jistě také chirurgičtí nebo operační roboti. Víme, že již dlouho existují roboti, kteří fungují jako v podstatě dneska už zcela autonomní piloti po celou dobu letu, včetně přistání. V tomto případě obvykle vzniká v případě nehody a podezření na selhání robota problém. V důsledku úplné demolice letadla je dost obtížné dohledat příčinu havárie a případnou roli roboty na této havárii. Analyzovat nehodu automobilu je zřejmě o dost snadnější a zřejmě proto si výše zmíněný výbor vybral pro svoji analýzu motorová vozidla. Já jsem to v této přednášce plně respektoval, protože mi to připadá jako velmi dobrý referenční vzorek.

Motorová vozidla dle úrovně automatizace

Nyní se dostáváme k pokusu nějakým způsobem motorová vozidla rozlišovat z hlediska úrovně automatizace. V průmyslu se rozlišují různé úrovně automatizace řízení (norma SAE J3016_201401). Ta rozlišuje momentálně 6 úrovní ovládání automobilu.

Úroveň řízení 0 vynechám, protože to je prostě jen „hloupé“ auto.

Úroveň 1 znamená auto, v němž řidič a automatický systém sdílejí kontrolu nad vozidle. Například je to vozidlo a adaptivním tempomatem či parkovacím asistentem, u něhož natáčení kol ovládá automat a řidič pouze rychlost.

Na úrovni 2 může vůz provádět dynamické jízdní úlohy, ale řidič musí systém sledovat a v případě potřeby jej ovládat. 

Na úrovni 3 již řidič nemusí systém po aktivaci sledovat, ale musí reagovat na požadavek převzetí řízení. 

Na úrovni 4 již jsou různé "kombinace" vysoce automatizovaného a plně automatizovaného řízení v závislosti na zahrnuje zejména situace, kdy řidič nereaguje na požadavek na převzetí řízení a vůz je řízen v režimu, který má "minimalizovat" riziko vyplývající z této situace. 

Na úrovni 5 je autonomní řízení bez člověka řidiče.[6] 

V úrovni 5 jde tedy o autonomní řízení bez člověka řidiče. Člověk si ve vozidle tak sedí a popíjí si svoji whisky, zatímco auto jede odněkud někam, jak bylo naprogramováno, když to popíši trochu idylicky. Podotýkám, že existují rozličné časové odhady toho, kdy k takové úrovni automatizace dojde, tedy kdy bude moct auto bez toho řidiče vyrazit na silnici. Ti z vás, kteří se o to alespoň trochu zajímáte, jste asi zaregistrovali, že už jednou takové vozidlo na silnice vyrazilo a nedopadlo to dobře, neboť došlo k sražení ženy, která přecházela vozovku. Kdo nebo co za to mohlo je předmětem dohadů.  Nicméně, seriózní odhady hovoří o tom, že někdy mezi rokem 2030 až 2050 by se měla začít taková vozidla pohybovat na našich silnicích. Které z těch let to bude, to je samozřejmě jiná záležitost. Podstatné je však něco úplně jiného. 

Pojďme se ale ještě jednou vrátit k úrovním automatizace vozidla. Z mého pohledu je důležitá úroveň 1, protože již reálně existuje – aktivní tempomat, parkovací asistent, avšak rychlost vozidla ovládá řidič.

Selhání autonomního systému a odpovědnost

Tím se dostáváme i k právní stránce věci, která je dnes dána zákonem č. 361/2000 Sb., o provozu na pozemních komunikacích. Velice jednoduše – zákon stanoví různé povinnosti řidiče, například chovat se ohleduplně a ukázněně, aby svým jednáním neohrožoval život a zdraví účastníků provozu atd., řídit se pravidly provozu na pozemních komunikacích, řídit se světelnými a příp. doprovodnými akustickými signály.

Ustanovení § 5 tohoto zákona je o něco důležitější. Řidič je povinen užít vozidlo, které splňuje technické podmínky, věnovat se plně řízení vozidla či jízdě na zvířeti, sledovat situaci v provozu a přizpůsobit jízdu technickým vlastnostem vozidla.

Co z toho vyplývá? Řidič je povinen vozidlo aktivně řídit. To dovozuji jako zásadní. Jde-li o úroveň 1 – řidič s automatickým systémem sdílí kontrolu nad vozidlem. Tady se ale již objevuje něco, co úplně nezapadá do dikce zákonem definované povinnosti řidiče. Příkladem může být aktivní tempomat, jehož funkce, omlouvám se, pokud poučuji poučené, spočívá v tom, že když si jej řidič zapne a nastaví určitou rychlost, tempomat ji nejen udržuje, ale i přizpůsobí rychlosti vozidla jedoucího před ovládaným vozem. Tedy přibrzdí, aby auto nenarazilo a zase zrychlí, když překážka zmizí.  Jede tedy přiměřeně rychle a přibrzdí, když je to potřeba. Do značné míry už se tedy stává auto v tomto směru autonomním. Parkovací asistent je v podstatě to samé, jen ještě sofistikovanější, řekl bych. Asistent je sám, autonomně, schopen zaparkovat do mezery vedle sebe stojících aut, pokud k tomu dostane pokyn. Řidič tedy v takto vybaveném vozidle sedí může do značné míry může spoléhat na to, že funkce, které jsou takto inzerovány – aktivní tempomat nebo třeba sledování silničních čar a automatické řízení, anebo ten parkovací automat, auto odřídí za něj. V případě parkovacího asistenta dokonce nesmí po zahájení manévru do řízení zasahovat.

Otázka zní, kdo odpovídá za to, že auto ovládané tempomatem nedobrzdilo, že narazilo do auta před ním. Co bude říkat řidič, který řídil toto vozidlo? Že spoléhal na tempomat, protože vždycky fungoval? Je to tak inzerováno výrobcem a dále o tom neuvažoval?  Kdo bude odpovídat za škodlivý následek? Co když bude obtížně identifikovatelné, jestli došlo k chybě na straně řidiče, anebo naopak na straně systému? A pak se musíme ptát, jestli byl řidič povinen systém kontrolovat systém do té míry, že mu absolutně nemohl věřit. Protože odpověď na tuto otázku po příčině nehody, tedy zavinění, může také znít: Já jsem systém kontroloval, ale ve chvíli, kdy jsem zjistil, že systém nefunguje tak, jak fungoval tisíckrát předtím, už bylo pozdě něco dělat, pak už se to ubrzdit nedalo.

A podobně jako já jsem nacouval naprosto nečekaně minimální rychlostí do něčeho, co bylo za mnou, ačkoliv to vozidlo tisíckrát předtím (jde o statistický údaj, spočítal jsem si to) spolehlivě dojelo samo, spolehlivě zastavilo. Samozřejmě, jak jsem řekl, v mém případě se vlastně skoro nic nestalo, protože rychlost byla minimální, pouze jsem si poškodil auto. Na této bázi ale můžeme už rozpoutat úvahu o tom, co by se asi mohlo stát, kdyby to nebylo takhle co do následků jednoduché.

A nyní se dostáváme k otázce selhání přístrojů aut v úrovni 2 až 5. Kdo za selhání odpovídá? Bude to řidič, výrobce auta, dodavatel hardware či software, homologátor (tj. ten, kdo auto pustil na silnici)? Nebo někdo jiný? To se dá obtížně usuzovat. Podotýkám, že pokud jde o civilistiku, ta si problém usnadňuje naprosto legitimně tím, že stanoví objektivní odpovědnost. Ale co právo trestní? 

Čímž se vracíme k nedbalosti u trestného činu (§ 16 trestního zákoníku): Pachatel buď věděl, že může způsobem uvedeným v trestním zákoně porušit nebo ohrozit zájem chráněný takovým zákonem, ale bez přiměřených důvodů spoléhal, že takové porušení nebo ohrožení nezpůsobí, nebo nevěděl, že svým jednáním může takové porušení nebo ohrožení způsobit, ač o tom vzhledem k okolnostem a k svým osobním poměrům vědět měl a mohl.

Dovolím si jeden skutečný případ pro obveselení. Dva hackeři někomu hackli automobil, který byl vybaven nejrůznějšími zařízeními, aby mohl signalizovat například kde se nachází. Díky tomu nad autem ilegálně získat kontrolu na dálku a posléze ho navést do příkopu. Jde o situaci v tuto chvíli ještě výjimečnou, ale ne zase tolik, protože systémy, které v tom vozidle byly, už existují a je možné je hacknout.  Kdo je za to odpovědný? Z určitého pohledu, řekněme selským rozumem posouzeno, majitel auta-Když si někdo do auta nechá namontovat takové vymoženosti, kterou lze na dálku proti vůle majitele ovládnout, nemůže se divit, že mu hacker na dálku auto zařídí, aby to „narval do pangejtu“. ¨Ale to je jenom taková hospodská odpověď, protože ta auta se samozřejmě vyrábějí a vybavují právě proto, aby řízení usnadňovala. Pokud si někdo vybaví auto tak, že je možné ho na dálku ovládat, je to možná lidsky jeho chyba, ale jistě ne protiprávní jednání, případně nedbalost. Tedy pokud jde o homologovanou výbavu. Stejně jako považuji za holé šílenství nadít si byt elektronikou a chlubit se, že ho o půlnoci můžu celý rozsvítit na dálku nebo zapnout pomocí internetu. Vždycky si říkám, no a co když ti to rozsvítí někdo jiný? Nebo co když ti to zhasne někdo jiný? Někdo ti hackne „kvartýr“, prostě jenom tak pro legraci, nebo protože proti tobě něco má. Zapne ti topení, ty se tam upečeš, nebo naopak zmrzneš. Je to samozřejmě otázka určité míry vlastní opatrnosti, ale to tady nemusíme rozvádět. Nelegální je do takového systému bez souhlasu jeho majitele zasahovat. Dokonce to je či může být trestný čin neoprávněného přístupu k počítačovému systému a nosiči informací dle § 230 tr.zákoníku.

Kdo by tedy za popsanou havárii automobilu odpovídal? Kdyby řidič vystoupil z auta a řekl: Prosím vás, ono to jelo samo, najezdilo to samo spoustu kilometrů, a najednou to zajelo do příkopu a já se nestačil divit a taky nevím proč se to stalo. V takovém případě máme následek, ten je jasný, ale máme jednání? Nemáme. Lze nalézt e zřejmou příčinnou souvislost? Velmi obtížně. Trestní odpovědnost je v tomto případě tak říkajíc nulově prokazatelná.

V případě odpovědnosti dle občanského zákoníku, obecněji civilní odpovědnosti je to, jak jsem zmínil, významně jednodušší.  Odškodnění, resp.. náprava škody, tady je to relativně v pořádku. Ale u trestní odpovědnosti se vracíme k otázce – věděl řidič nebo provozovatel vozidla , že robot něco "provede"? A bez přiměřeného důvodu svému robotovi důvěřoval? Nebo nevěděl, ale měl to vědět vzhledem ke svému postavení, funkci atd., tak, jak to říká trestní zákoník? A do toho ještě cituji nález Ústavního soudu Pl. ÚS 15/16 ze dne 16. 5. 2018, který jednoznačně deklaruje to, co se zdá být každému úplně jasné, totiž že objektivní odpovědnost za jednání, které by mohlo být kvalifikováno jako trestný čin, prostě neexistuje a nemůže existovat. V trestním právu tedy není řešením, že se to upraví podobně, tedy že by měl někdo mít nějakou objektivní odpovědnost.

Trestní odpovědnost de lege ferenda

Co tedy v současné době s tou situací? Napadla mne drobná změna zmíněného zákona o provozu na pozemních komunikacích. Konkrétně ustanovení § 4 a § 5. A vyšel jsem z toho, že pokud bychom chtěli vůbec uvažovat o trestní odpovědnosti řidiče, museli bychom zásadně změnit paradigma, o kterém jsem hovořil, a především jasně definovat, co přesně ten řidič vlastně je povinen, a obráceně, jakou povinnost už nemá. A v podstatě vyloučit, že v případech motorových vozidel úrovně 3 až 5 bude řidič odpovědný za to, že to vozidlo udělá něco, s čím se nedalo vůbec počítat. Podle ustanovení § 5 současného zákona, jak jsem zdůrazňoval, je řidič povinen užít vozidlo. V případě úrovně 2 je povinen se plně věnovat řízení vozidla, protože tam se předpokládá, že má řidič reagovat na poplašný signál. Pokud se vozidlo řítí například někam do zdi nebo to vypadá, že do někoho narazí, má řidič převzít řízení. Na úrovni 3 má být připraven k zásahu během časového limitu určeného výrobcem, v případě úrovně 4 má převzít kontrolu nad vozidlem a konečně v případě úrovně 5 do toho vůbec nezasahovat. V úrovni 5 už se řidič „poveze“ v podstatě absolutně bez jakékoliv odpovědnosti, a naopak se změní paradigma tak, že řidič bude odpovídat za to, že do řízení zasáhl. Pátá úroveň je z pohledu odpovědnosti asi nejjednodušší, protože v úrovni 3 a 4 bude nutné posuzovat, do jaké míry měl řidič reagovat.

Uvedené platí obecně také pro případy, že se "zblázní" či porouchá operační robot. Všichni víme, že existují, a že s úžasnou přesností vykonávají operace. Co ale když jednou provede vivisekci? Zatím k ničemu takovému sice nedošlo, ale popravdě řečeno, je to trochu zázrak. Na druhou stranu je alarmující, že se naše společnost zabývá lecčíms jiným, ale neuvažuje o tom, jak bude řešit tyto situace, ke kterým musí zcela zákonitě dojít. Jistě se bude hned řešit případ, kdy první tempomat selže a řidič, který na něj spoléhá, narazí do auta před ním. Pokud to neskončí jenom porouchaným nárazníkem, ale poškozenou krční páteří a bude z toho pracovní neschopnost delší než 7 dní. Samozřejmě půjde o trestný čin, pokud bychom to měli brát z hlediska dnešní odpovědnosti.

Zde se svůj příspěvek skončím. Jak jsem uvedl v úvodu, šlo o pokus nastínit vám objem problému, nikoliv však jejich řešení.

 

Článek byl dne 9. 6. 2022 zveřejněn na serveru www.pravniprostor.cz a je dostupný zde.

 

[1] https://cs.wikipedia.org/wiki/Robot 

[2] https://www.iso.org/obp/ui/#iso:std:iso:8373:ed-2:v1:en 

[3] Odpovědnost za delikty autonomních systémů současným pohledem Ústavního soudu ČR, Mgr. Vojtěch Říha, Právní prostor 16.07.2020 

[4] „Na rozdíl od všech svých předchůdců, jako byli Fritz, Rybka, Stockfish či Houdini, je AlphaZero založen na samoučících se neuronových sítích. Žádný programátor nevysvětloval AlphaZero základy šachové strategie, nikdo neladil jeho algoritmy hodnocení pozic, ani do něj nevložili databázi zahájení a databázi koncovek. Prostě mu zadali pravidla a nechali ho hrát miliony partií sám proti sobě. A za několik hodin tohoto sebeučení se z AlphaZero stal nejsilnější šachový program na světě.“ (MATOCHA, P. AlphaZero: Revoluce šachového programu a nástup umělé inteligence. Česká pozice, LIDOVKY.CZ, 29. 3. 2020. [online] [29. 3. 2020]. Dostupné na: https://ceskapozice.lidovky.cz/tema/alphazero-revoluce-sachoveho-programu-a-nastup-umele-inteligence.A200326_001939_pozice-tema_lube)

[5] Jan Tomíšek, Revue pro právo a technologie 18/2018, s. 29

[6] Evropský výbor pro řešení problémů kriminality. Studie možných nástrojů Rady Evropy pro řešení problémů umělé inteligence a trestního práva. Štrasburk, 4.9.2020


JUDr. Tomáš Sokol

společník

Staňte se našim klientem

Stát se naším klientem není nic složitého. Zpravidla se tak stane tím, že nás nejprve kontaktujete prostřednictvím emailu nebo kontaktního formuláře a stručně rozvedete, v jaké věci požadujete právní službu. Nedlouhou poté Vás oslovíme a společně, nejlépe při osobní schůzce, dohodneme podrobnosti převzetí věci.

Kde nás najdete?

Advokátní kancelář Brož & Sokol & Novák
Sokolská třída 60, 120 00 Praha 2 - Nové Město