Novinky
Další literatura z oblasti etiky AI a sociální robotiky
David Černý
V minulém přehledu literatury jsem se soustředil na základní uvedení do etiky a klíčová díla etiky AI a roboetiky. V tomto přehledu bych rád představil některé další publikace, které se věnují etice umělé inteligence, nebudu se však omezovat pouze na ně.
Nick Bostrom. Superintelligence.
Nick Bostrom je švédský filosof působící na Oxfordské univerzitě. Jeho zájmy jsou poměrně široké, proslavil se však především svou publikací Superintelligence. Zabývá se v ní možnostmi tvorby superinteligentní obecné inteligence (umělé inteligence, která ve všech aspektech překoná inteligenci lidskou) a riziky, jež jsou s ní spojené. Etické úvahy jsou v různé míře implicitně obsaženy prakticky ve všech kapitolách, explicitně se jim potom autor věnuje především v kapitole Získávání hodnot, jež se zaměřuje na způsoby, jimiž by bylo možné strojům vtělit eticky relevantní rozhodovací procedury. Nakladatelství Prostor vydalo v roce 2017 český překlad této knihy pod názvem Superinteligence.
Luís Moniz Pereira, Ari Saptawijaya. Programming Machine Ethics.
Tato kniha je určena čtenářům, kteří jsou obeznámeni s moderní logikou, jejíž znalost je pro pochopení textu nezbytná. Autoři představují základní přístupy ke strojové etice a některé konkrétní příklady z praxe, např. vtělení principlismus v medicínském expertním systému MedEthEx využívajícím induktivní logické programování. Můj pocit z této knihy je však poněkud rozpačitý. Obsahuje velké množství formálního logického aparátu, nicméně v okamžiku, kdy autoři přistupují k modelování morálky prostřednictvím logického programování, nepředkládají nijak zajímavé či podstatné poznatky.
Paula Boddington. Towards a Code of Ethics for Artificial Intelligence.
Tvorba etických kodexů je jedním z úkolů aplikované etiky. Etické kodexy v oblasti AI mohou být normativním nástrojem regulujícím tvorbu, vývoj a využívání umělé inteligence v praxi. Britská filosofka Paula Boddington se ve své útlé knížce podrobně věnuje diskusi principů, jimiž by se tvorba kvalitních a v praxi použitelných etických kodexů měla řídit, zvláště pokud se jedná o tak bouřlivě se vyvíjející oblast výzkumu, jakou je výzkum umělé inteligence a robotiky. Velmi cenná je kapitola Some Suggestions for How to Proceed, kde se autorka zaměřuje na etické principy umělé inteligence, přijaté v roce 2017 na konferenci v Asilomar Conference Grounds v americké Kalifornii.
Paul Dumouchel, Luisa Damiano. Living with Robots.
S touto mimořádně zajímavou publikací, jež původně vyšla v roce 2016 ve francouzštině s názvem Vivre avec les robots: Essai sur l’empathie artificielle (Život s roboty: esej o umělé empatii) a o rok později vydalo nakladatelství MIT Press její anglickou verzi, opouštíme rovinu čisté aplikované etiky a dostáváme se do oblasti sociální robotiky. Sociální robotika se zaměřuje na dopady AI a robotiky na předivo vztahů, jenž konstituuje lidskou společnost. Jinými slovy, klade si otázky ohledně sociálních dopadů moderních technologií. Living with Robots je fascinující četbou a možná tím nejlepším, co kdy bylo na toto téma napsáno. Je například zajímavé sledovat výklad autorů o diametrálních rozdílech ve vnímání AI a robotů v naší, západní společnosti, a v Japonsku. Kniha se nevyhýbá ani etickým problémům, jimž věnuje poslední kapitolu. Luisa Damiano, spoluautorka knihy, je členkou Centra Karla Čapka pro studium hodnot ve vědě a technice.
David Levy. Love + Sex with Robots. The Evolution of Human-Robot Relationship.
Britský filosof David Levy je mezinárodně uznávaným odborníkem na umělou inteligenci (napsal např. knihu Robots Unlimited) a předsedou International Computer Games Association. Ve své publikace o lásce a sexu s roboty, první takto zaměřené knize, jež vyšla již v roce 2007, autor tvrdí, že v dohledné době se lidé budou zamilovávat do robotů, budou vstupovat do manželských svazků s roboty a budou s nimi mít sex, což podle Levyho bude přirozeným rozšířením našich emočních vztahů a sexuálních tužeb. Celá publikace, rozdělená do dvou tematických částí (láska k robotům – sex s roboty), je výborně vystavěnou a argumentačně dobře podloženou obhajobou tohoto tvrzení.
John Danaher, Neil McArthur. Robot Sex. Social and Ethical Implications.
V roce 2017 publikovalo nakladatelství MIT Press tuto kolekci zásadních texů o sociálních a etických důsledcích využívání sexuálních robotů. Kniha je rozdělená do několika částí. První z nich představuje a analyzuje samotný pojem sexu s roboty, druhá se soustředí na argumenty ve prospěch morální přípustnosti sexu s roboty. Třetí sekce naopak přináší argumenty proti, založení na náboženské či sociální a symbolické dimenzi robosexuality. Další část knihy se věnuje perspektivě samotných robotů a klade si například otázku, zda pro ně může být dobré být sexuálními roboty. Nechybí ani úvahy o tom, zda je láska k robotům vůbec možná či diskuse prvních empirických výzkumů názorů lidí na sex s roboty.
Marco Nørskov. Social Robots. Bundaries, Potential, Challenges.
Roboti nebudou pouze operovat, nahrazovat naše automobily, zasahovat ve válce, ale stanou se také – a již se stávají – součástí společnosti jako naši partneři. Lidé nebudou roboty vnímat jako pouhé stroje a nebudou je posuzovat čistě rozumově. Budeme si k nim vytvářet celou řadu emočních vazeb, budeme je mít rádi, budeme jim vděční, budeme se těšit z jejich společnosti, budeme mít o ně starost, bude nám na nich prostě záležet. Tato publikace, jež vyšla v roce 2016 v nakladatelství Routledge, přináší několik zásadních příspěvků předních expertů na sociální robotiku a vymezuje tak terén etických a sociálních problémů spojených se společenskými roboty.
Aimee van Wynsberghe. Healthcare Robots. Ethics, Design, and Implementation.
Roboti pomáhající s péči o pacienty jsou již realitou – např. TUG® či HelpMate™ a okruh jejich možností se bude neustále rozšiřovat. Pečující roboti (carebots) jsou roboti, kteří jsou určeni pro nemocnice, domácnosti či další zařízení, ve kterých mají asistovat a pečovat o nemocné, staré či postižené osoby. Holandská filosofka van Wynsberghe se ve své knize podrobně věnuje všech etickým a sociálním otázkám, které jsou s pečujícími roboty spojeny, včetně např. problému inkorporace hodnot v samotném procesu návrhu designu těchto specializovaných strojů.
Peter Frase. Four Futures. Life After Capitalism.
Mladý americký sociolog Peter Frase, editor magazínu Jacobin, se ve své knize zamýšlí nad spojeným efektem dvou důležitých dějů: klimatické změny a stále rostoucího využívání umělé inteligence a robotů ve společnosti. Autor je přesvědčený, že podle toho, jak si s těmito ději poradíme, mohou v závislosti na parametrech nadbytek – nedostatek a rovnost – hierarchie vzniknout čtyři typy společnosti: komunismus (nadbytek a rovnost), socialismus (nedostatek a rovnost), rentismus (nadbytek a hierarchie) a konečně exterminismus (nedostatek a hierarchie). Velmi dobře napsaná a poutavá kniha.
Illah Reza Nourbakhsh. Robot Futures.
Na závěr jsem si nechal útlou, ale velmi zajímavou knihu profesora robotiky na Carnegie Mellon University (spoluautora publikace Introduction to Autonomous Mobile Robots) Illaha Rezy Nourbakhshiho. Autor se zamýšlí nad důsledky naší budoucí koexistence s roboty, kteří nás budou ve všech aspektech převyšovat. Nejedná se o alarmistické dílo, jež by nás varovalo před hrozící apokalypsou vyvolanou inteligentními stroji. Nourbakhsh se samozřejmě obává rizik spojených s AI, nicméně více se bojí jejího zneužití lidskými tvory. Může např. vést AI k zániku demokracie? Zřejmě ano – a už to začínáme pozorovat u nás v ČR; stačí, když budeme AI využívat ke shromažďování dat o preferencích všech občanů a politické strany se budou řídit pouze jimi. Kdo má nejlepší data a umí podle nich sestavit politický program, vyhraje volby. Formálně budeme žít v demokracii, ale vytratí se její hodnotová dimenze – respekt k právu, férovosti, právům a hodnotám.
Etická pravidla regulace AI
Zpráva Centra Karla Čapka pro studium hodnot ve vědě a technice
Umělá inteligence (dále jen AI) ve svých různých podobách, ztělesněních (roboti) a aplikacích slibuje výrazné benefity pro lidské jedince uvažované jednotlivě a jako společnost. Má výrazný potenciál přispět k teoretickému a aplikovanému výzkumu, zlepšit distribuci zdrojů, podpořit růst průmyslu a zlepšit jeho efektivitu, stále větší úlohu bude hrát v každodenním lidském životě v podobě medicínských robotů, medicínských expertních a diagnostických systémů, jako řídící algoritmy autonomních vozidel, průmyslových robotů, domácích, asistenčních či záchranných robotů.
Klíčovým momentem rozvoje a využívání systémů umělé inteligence ve společenském měřítku je požadavek, aby nedocházelo k narušení struktury společnosti a složitého přediva vazeb, díky nimž je společenství lidí skutečnost lidskou společností. Tento požadavek je možné vyjádřit pojmem důvěryhodné umělé inteligence (Trustworthy AI), která splňuje dva klíčové požadavky:
- Ve svém vývoji a využití respektuje základní lidská práva, hodnoty a etické principy a podléhá systému regulace, jenž zajišťuje, že se AI chová eticky korektním způsobem.
- Je z technického hlediska dostatečně robustní a spolehlivá.
Respekt k těmto dvěma principům zajišťuje, že stále širší využívání systémů umělé inteligence v praxi nepovede k morální panice, vzrůstu obavy z AI a odmítání jejích aplikací ve společnosti. Je tedy zřejmé, že etická a hodnotová dimenze výzkumu, vývoje a aplikace AI není něčím, co by vstupovalo do hry v pozdějších fázích tohoto vývoje; představuje hodnotový rámec, který musí být inkorporovaný ve všech jeho okamžicích, od výzkumu, návrhu designu a algoritmů, až po jejich implementaci a praktické využití.
Situace ve světě
Zvláště v zemích EU a USA je hodnotové a etické dimenzi vývoje a využití AI již delší dobu věnována velká pozornost, což se v praxi projevuje několika způsoby.
- Existuje celá řada výrazných odborníků věnujících se etice AI, roboetice a filosofii techniky. Mezi nejdůležitější postavy rozvíjející hodnotovou a etickou dimenzi AI patří Nick Bostrom, Stuart Russell, Wendell Wallach, Patrick Lin, Dario Amodel či Eliezer Yudkowsky. Výsledkem práce těchto odborníků jsou publikace pokládající základy etiky AI, např. Superintelligence, Robot Ethics, Robot Ethics 2.0, Moral Machines, Life 3.0 či Towards a Code of Ethics for Artificial Intelligence. Všichni zmínění odborníci se rovněž v roce 2017 zúčastnili klíčové konference Asilomar Conference, která předložila celou řadu důležitých etických principů regulace výzkumu a využívání AI.
- V poslední době vznikla také celá řada multidisciplinárních center zabývajících se výzkumem etiky AI. Mezi nejvýznamnější patří Future of Humanity Institute, Future of Life Institute, Center for Human-Compatible AI, OpenAI, Machine Intelligence Research Institute, Leverhulme Centre for the Future of Intelligence či centrum Philosophy of Media and Technology na Vídeňské univerzitě.
- Na zahraničních univerzitách existují programy Ph.D. studia v oblasti aplikované etiky, filosofie techniky a AI a etiky umělé inteligence. Tyto programy umožňují interdisciplinární výzkum hodnotové a etické dimenze moderních technologií a vychovávají odborníky, kteří se mohou podílet na výzkumu a vývoji věrohodné AI a spolupracovat s ostatními odborníky na vývoji etických směrnic regulujících tento výzkum a jeho aplikace v praxi.
18. 12. 2018 publikovala High-Level Expert Group on Artificial Intelligence při Evropské komisi návrh etických směrnic pro věrohodnou AI (Ethics Guidelines for Trustworthy AI), které ukazují, že v rámci EU je tomuto problému věnována velká pozornost. Tento návrh by se v ČR měl stát východiskem k širší odborné a společenské diskuzi uzavřené vytvořením a publikací směrnic platných v ČR.
Situace v ČR
V České republice je v porovnání se zahraničím výrazně horší. Existuje zde pouze jeden doktorský program studia aplikované etiky (FHS UK, prof. Haškovcová), zaměřuje se však téměř výhradně na lékařskou etiku. Rovněž v doktorských programech bioetiky (1. LF UK, LF MU Brno) se vzdělávají především odborníci na bioetiku a lékařskou etiku. Důsledkem tohoto stavu je to, že v České republice je jen velmi málo odborníků, kteří se mohou odborně věnovat problematice etiky AI.
V nedávné době neexistovalo žádné interdisciplinární centrum zaměřené na hodnotou a etickou dimenzi AI a moderních technologií. Tato situace se změnila na podzim roku 2018, kdy při slavnostním podpisu smlouvy o spolupráci mezi Ústavem informatiky AV ČR, Filosofickým ústavem AV ČR, Ústavem státu a práva AV ČR a Přírodovědeckou fakultou UK vzniklo meziústavní Centrum Karla Čapka pro studium hodnot ve vědě a technice. Třebaže toto centrum existuje velmi krátkou dobu, podařilo se mu již navázat rozsáhlou mezinárodní spolupráci (mezi členy centra patří např. prof. Patrick Lin), díky níž bude centrum v červnu 2019 pořádat mezinárodní konference o etice autonomních vozidel. Členové centra také připravují publikaci o etice autonomních vozidel, která se připravuje se spolupráci s nakladatelstvím Oxford University Press.
Rovněž v oblasti tvorby etických směrnic regulujících výzkum, vývoj a aplikace AI Česká republika výrazně pokulhává za EU a USA. Žádné směrnice neexistují ani v podobě prvotního návrhu určeného k širší odborné diskusi, nebyla ustavena žádná odborná komise, která by se tomuto problému věnovala a splňovala by podmínku odbornosti svých členů, tj. schopnosti orientovat se v současné etice a moderních technologií.
Základní etické systémy
V současné normativní etice existuje celá řada etických systémů, které se teoreticky nabízejí jako nástroje regulace AI. Jako nejvhodnější lze určit následující dva:
- Konsekvencialistické přístupy
- Deontologické přístupy
Konsekvencialistické přístupy
Konsekvencialistické etické teorie vycházejí z předpokladu, že jediným morálně relevantním normativním faktorem – tj. faktorem určujícím, zda určité jednání je z morálního hlediska správné či nesprávné – jsou důsledky jednání. V případě AI lze hovořit o „umělé morálce“, tj. o hodnocení důsledků jednání AI a strojů, které disponují umělou inteligencí, aniž bychom museli brát v úvahu další důležité problémy, jakým je např. morální odpovědnost.
Je-li X systém umělé inteligence schopný jednání, J představuje určité jednání/činnost/aktivitu, a jsou-li D1, …, Dn důsledky tohoto jednání, potom o morálním hodnocení (správné-nesprávné) J rozhodují pouze důsledky D1, …, Dn.
Příklad: Autonomní vozidlo řídící se konsekvencialistickou etikou minimalizace újmy v situaci možné kolize zváží: i) možné modality jednání (zahnout vlevo, vpravo, pokračovat v jízdě, prudce brzdit a neměnit směr…), ii) předpokládané důsledky těchto modalit jednání, iii) předpokládanou celkovou újmu spojenou s těmito důsledky, iv) určení modality jednání, která přináší nejnižší újmu, v) provedení tohoto jednání. Nakonec provede akci, jejíž důsledky přinesou nejnižší možnou újmu všem zúčastněným stranám.
Etika založená na zvažování důsledků musí disponovat klíčem, podle něhož budeme důsledky zvažovat, tj. musí disponovat možností hodnotového (dobré-lepší-špatné-horší) posouzení důsledků jednání.
Příklad: Etické algoritmy autonomních vozidel musí zahrnovat tři kategorie možné újmy (na majetku – na zdraví – na životech) a způsoby, jak tuto újmu kvantifikovat a srovnávat nejen v rámci jedné kategorie, ale i napříč kategoriemi.
Přitažlivost konsekvencialistické etiky, zvláště v kontextu AI, spočívá v tom, že se nejedná o nějaký systém obecných morálních norem, které by AI musela interpretovat a rozhodovat v případě, že je na daný konkrétní případ možné aplikovat více protiřečících si norem.
Příklad. Představme si medicínského robota, který se řídí morálními normami „Minimalizuj utrpení pacienta“, „Respektuj autonomní přání pacienta“ a „Nesmíš usmrtit“. V případě netěšitelné bolesti, kdy pacient autonomním způsobem opakovaně žádá o svou smrt, ocitají se normy „Respektuj autonomní přání pacienta“ a „Nesmíš usmrtit“ v konfliktu.
Jediným pravidlem – lze ho nazývat procesním pravidlem – konsekvencialistické etiky je pravidlo maximalizace užitku, jemuž můžeme dát následující podobu:
Je-li X systém umělé inteligence schopný jednání, J1, … Jn představují možná jednání/činnosti/aktivity, potom morálně správné (a tudíž povinné) je jednání Ji, jehož důsledky přinášejí nejvyšší užitek.
Určení parametrů hodnotového posouzení důsledků jednání AI (užitek) může být problematické zvláště v případě, kdy nehodnotíme negativní dopady její činnosti, nýbrž dopady pozitivní. Jakým způsobem maximalizovat užitek všech zúčastněných stran? Maximalizovat jejich štěstí, preference, potěšení? Neexistuje-li shoda na interpretaci pojmu „užitek“, nelze konsekvencialistickou etiku uplatnit v praxi. Dalším problémem, ryze praktické povahy, je přesná kvantifikace užitku – jakým způsobem má AI určit, že její jednání způsobí určitý nárůst štěstí či potěšení?
Problém praktické neshody na interpretaci pojmu „užitek“ a obtíže spojené s kvantifikací důsledků jednání ve shodě s nějakým hodnotovým klíček (které lidské bytosti provádějí intuitivně) představují hlavní překážky uplatnění konsekvencialistické etiky v regulaci AI.
Vzhledem k obtížím, spojeným zvláště s interpretací užitku a kvantifikací důsledků jednání/činnosti AI, nepředstavuje konsekvencialistická etika vhodný etický systém pro regulaci AI obecně. Přesto však může existovat využití této etiky v rámci některých specifických aplikací AI, u nichž požadujeme jen omezený počet rozhodovacích alternativ a užitek je možné určit např. požadavkem na minimalizaci újmy. Tento etický systém – zřejmě v rámci určitých omezení – velmi pravděpodobně nalezne své uplatnění např. v řídících algoritmech autonomních vozidel.
Deontologické systémy
Pod hlavičkou „deontologické systémy“ se skrývá celá řada etických přístupů, které je obtížné jednoduše a jednoznačně charakterizovat. Obvykle pro ně platí, že pracují s obecnými etickými principy (např. respektem k lidské autonomii), které ukotvují celou řadu obecných morálních norem. Deontologické systémy se často používají při formulaci etických profesních norem, např. norem lékařské etiky, etiky soudců, novinářské etiky, roboetiky apod.
V případě deontologických etik se setkáváme s odmítnutím principu maximalizace užitku. Namísto něj se většinou postuluje celá řada obecných negativních a pozitivních morálních norem, které ukládají negativní (např. nezabiješ) či pozitivní (např. pomáhej lidem v nouzi) povinnosti.
Příklad: Medicínský robot zvažuje, zda odebrat orgány zdravému člověku a zachránit tak životy pěti nemocným a umírajícím pacientům. Takové jednání by sice maximalizovalo užitek, tento robot však postupuje podle pravidel deontologické etiky: usmrcení nevinné lidské bytosti spadá do kategorie „vražda“ a vražda je typem jednání zapovězeném negativní morální normou „vražda je za všech okolností nepřípustná“.
Deontologické přístupy k regulaci AI jsou více v souladu s mezinárodními úmluvami ukotvenými lidskými právy a respektem k lidské důstojnosti, svobodě, rovnosti a solidárnosti než etiky založené na konsekvencialistické rozvaze.
Pokud však chceme formulovat konkrétní obecné morální normy, musíme se shodnout na základních principech, o něž by se tyto normy opíraly. V současnosti se v oblasti etiky AI nejčastěji zmiňují následující principy:
- Princip beneficence.
- Čiň dobro.
- Princip non-maleficence.
- Nepůsob újmu.
- Princip autonomie.
- Respektuj autonomii lidských osob a jejich aktérství.
- Princip férovosti.
- Buď férový.
- Princip transparentnosti.
- Jednej transparentně.
Princip beneficence se pohybuje v rovině pozitivních morálních norem a závazků a požaduje, aby se AI chovala k lidem způsobem, který aktivně přispívá k rozvoji jejich welfare, jak v individuální, tak i společenské úrovni. Může zahrnovat podporu demokratických procesů a vlády práva ve společnosti, zajištění služeb a statků ve vysoké kvalitě a za nízkou cenu, týká se ale také specifičtější role AI ztělesněné např. v podobě medicínských expertních systémů a robotů či společenských a sociálních robotů, včetně sexbotů.
Princip non-maleficence spadá do negativní oblasti morálních norem a povinností a ukládá AI, aby svým jednáním nepůsobila lidským bytostem újmu. Újmu zde musíme chápat velmi široce, od újmy na zdraví či životě až po psychickou. Vzhledem k tomu, že k lidskému welfare výraznou měrou přispívá i kvalita životního prostředí, je možné tímto principem odůvodnit morální normy zakazující AI poškozovat životní prostředí či působit újmu živočichům, zvláště těm, vůči nimž máme silné emocionální vazby.
Princip autonomie vyjadřuje vysoký respekt k lidským bytostem jako autonomním aktérům, kteří mají právo informovaně a svobodně určovat kontury svého dobrého života a v mezích morálky tento život naplňovat. Může zakotvovat morální normy zakazující AI obelhávat lidské bytosti, nepřesně je informovat či jinak omezovat jejich možnosti informované volby, nemluvě o normách zakazujících neoprávněně je omezovat ve svobodě vyznání, názoru, projevu a pohybu.
Princip férovosti vyžaduje, aby byl vývoj, využití a regulace AI férový, nediskriminoval určité skupiny obyvatel a umožňoval jim férový přístup k benefitům – např. v oblasti vzdělání, lékařských procedur či služeb – poskytovaných AI. Princip férovosti v oblasti vzácných zdrojů – a AI a její služby zatím nejsou přístupné všem – nevyžaduje, aby všichni dostali stejně, nýbrž to, aby jejich potřeby byly férově vzaty v úvahu.
Příklad. Nemocniční tým se rozhoduje o tom, který pacient může být operovaný moderním chirurgickým robotem. Vzhledem k tomu, že mají pouze jednoho, představuje vzácný zdroj, jehož služby není možné poskytnout všem pacientům. Férovost však požaduje, aby při rozhodování o tom, který pacient bude robotem operovaný a který ne, byly v úvahu férovým způsobem vzati všichni pacienti čekající na tento typ operace.
Princip transparentnosti je specifickým principem etiky umělé inteligence a požaduje, aby systémy umělé inteligence byly kontrolovatelné a alespoň v základních obrysech srozumitelné všem lidem. Tento požadavek je klíčový vzhledem k tomu, že systémy AI jsou a stále více budou součástí naší společnosti ve všech jejích dimenzích a důvěra lidí v umělou inteligenci je nutná pro vzájemnou a dobrou koexistenci lidí a AI, bez níž se benefity s AI spojené budou jen obtížně uplatňovat. V rámci principu transparentnosti lze jako morální požadavek vyžadovat také transparentní právní úpravu regulující využití systému AI, zvláště v oblasti ochrany osobních údajů či odpovědnosti umělých systémů.
Někteří autoři formulují více základních principů (např. princip bezpečnosti, princip transparentnosti při selhání AI, princip odpovědnosti, požadavek na respekt k lidským hodnotám, princip respektu k soukromí, princip svobody, princip sdílené prosperity či princip sdílených benefitů), všechny jsou představují konkrétnější podobu výše uvedených pěti etických principů regulace AI.
Cíle výzkumu etiky AI
Etická regulace AI je jedním z klíčových požadavků současné doby, bez níž je koexistence systémů AI a lidských bytostí ve společnosti, včetně nezměrného množství benefitů, jež nám tato koexistence může poskytnout, nemyslitelná.
V oblasti etiky AI se nejčastěji setkáváme se dvěma etickými systémy, konsekvencialistickou etikou a deontologickou etikou. Každý ze systémů má své klady a zápory, zdá se však, že pro obecnou regulaci vývoje, využití a regulace AI je vhodnější systém deontologické etiky založený na pěti základních principech:
- Principu beneficence.
- Principu non-maleficence.
- Principu autonomie.
- Principu férovosti.
- Principu transparentnosti.
Tyto principy umožňují formulovat celou řadu pozitivních a negativních morálních norem, jimiž by se AI měla řídit, aby se mohla stát důvěryhodnou (trustworthy) umělou inteligencí, která bude:
- Respektovat lidskou důstojnost, práva a hodnoty;
- Byla technicky natolik robustní, aby byla transparentní a spolehlivá.
Formulace těchto principů však představuje pouze první krok na cestě dlouhého hledání konkretizace těchto pravidel v praxi, zvláště v případech, kdy se AI ocitne v situaci, kdy:
- Musí distribuovat nějakou újmu;
- Musí distribuovat vzácné zdroje.
Příklad: Etické algoritmy autonomních vozidel se budou nevyhnutelně ocitat v situaci, kdy během kolizních situací budou muset rozhodovat o tom, jak distribuovat újmu. V takovém případě lze očekávat, že konečné řešení distribuce újmy bude zahrnovat jak deontologické požadavky určené pěti principy, tak i konsekvencialistické úvahy.
Další konkretizace etických norem, aplikovatelných na konkrétní situace každodenního života, budou zřejmě vyžadovat nejen abstraktní etické rozvahy, ale také důkladný výzkum morálních intuic lidských bytostí a kvalitní vzdělávání v oblasti etiky a informatiky.
Cíle výzkumu etické a hodnotové dimenze AI lze rozdělit do tří oblastí:
- Krátkodobé cíle.
- Vytvoření expertní etické skupiny odborníků na normativní, aplikovanou etiku a etiku AI, která bude působit v rámci nějakého ministerstva (nejspíše Ministerstva průmyslu a obchodu). Vzhledem k jeho odbornosti by bylo vhodné, aby pověřením sestavení této skupiny bylo pověřeno Centrum Karla Čapka pro studium hodnot ve vědě a technice (www.cevast.org).
- Vytvoření směrnice regulace výzkumu, vývoje a využití AI v České republice. Nutnost této regulace je ukotvena v samotném pojmu důvěryhodné AI a je nezbytná pro udržení kroku s vývojem ve světě a konkurenceschopnosti české vědy a techniky.
- Vytvoření webových stránek (či podpora již existujících – viz. www.cevast.org), jejichž účelem bude edukace české populace o výhodách využívání AI a jejich bezpečnosti.
- Střednědobé cíle.
- Podpora vzniku doktorských (Ph.D) programů v oblasti etiky AI. Tyto doktorské programy mohou být garantovány vícero institucemi (např. Ústav státu a práva AV ČR, Ústav Informatiky AV ČR, Filosofický ústav AV ČR, univerzity) a měly by sloužit k výchově odborníků, kteří, kromě výzkumu, budou moci spolupracovat s vládními orgány na implementaci etických směrnic regulujících AI a její kontrole.
- Podpora vzniku specializovaných kurzů pro výzkumné organizace a průmyslové podniky v oblasti etiky AI, směrnic její regulace a implementace v praxi. Tyto kurzy, garantované vědeckými institucemi a Ministerstvem průmyslu a obchodu, by byly zakončeny udělením certifikátu.
- Dlouhodobé cíle.
- Dlouhodobé cíle jsou reprezentovány ideálem vývoje a využívání věrohodné AI a jsou podmíněny splněním cílů krátkodobých a střednědobých. Vytváření věrohodné AI je třeba zajistit na technické a netechnické úrovni.
- Technická úroveň.
- Etická pravidla by měla být regulačním principem již samotného vytváření návrhů systémů AI (Ethics & Rule of Law by Design).
- Součástí architektury systémů AI musí být souhrn etických pravidel vymezující jejich chování.
- Chování systémů AI musí být důkladně testováno s ohledem na jejich stabilitu, robustnost a chování v přesně definovaném rámci.
- Systémy AI by měly ukládat jednotlivá rozhodnutí a způsoby jejich dosažení, aby bylo možné je vždy vyhledat, vyhodnotit a v případě, že rozhodnutí bylo chybné, přenastavit systém tak, aby se v budoucnosti podobných chyb vyvaroval.
- Netechnická úroveň.
- Systémy AI je třeba právně regulovat, aby byla zajištěna bezpečnost jejich využití a dobře nastaveny mechanismy určování odpovědnosti v případě špatného fungování či vzniku újmy lidským bytostem (např. v případě kolize autonomních vozidel).
- K zajištění bezpečnosti využití AI mohou sloužit také metody standardizace designu, výroby a využití v praxi.
- Etické komise by měly na národní a podnikové úrovni sledovat využívání AI a poskytovat etické poradenství v případě vzniku konfliktních situací.
- Česká republika by měla disponovat závaznými etickými směrnicemi regulujícími výzkum, vývoj a uplatňování AI v praxi. Tyto směrnice by se měly stát niternou součástí celého procesu vývoje AI.
- Vzhledem k tomu, že se systémy AI stávají součástí lidské společnosti, takže lze začít hovořit o problému koexistence lidí a AI, je třeba vytvářet systémy edukace společnosti ohledně benefitů plynoucích z využívání AI a požadavků na etickou regulaci jejího chování.
Závěr
Osnova národní strategie umělé inteligence v ČR (NAIS) uvádí, že Česká republika by měla být inovačním lídrem vývoje a aplikace umělé inteligence v praxi, měla by se stát „zemí robotů“. Jedním z nezbytných předpokladů splnění tohoto cíle je jasné nastavení etických pravidel regulujících chování systémů umělé inteligence takovým způsobem, aby se mohly stát součástí lidské společnosti, nepůsobily újmu, nebudily morální paniku a mohly tak plně rozvinou svůj potenciál ve všech oblastech lidského poznání a praxe, od teoretického vědeckého výzkumu přes aplikovaný až k technologickým procesům, medicínským, společenským a asistenčním robotům až po expertní systémy.
Česká republika musí při naplňování svého cíle splnit všechny předpoklady vzniku věrohodné AI, od tvorby závazných etických směrnic, přes vznik etických komisí až po nastavení podmínek výzkumu a výuky, umožňujících vznik specializovaných doktorských programů vychovávajících odborníky v oblasti etiky AI, kteří budou schopni poskytovat svou odbornou expertízu na vládní a podnikové úrovni. Jedině tak je možné zaručit naplnění cíle stát se inovačním lídrem v oblasti AI a také nastavit kontrolní mechanismy vzniku, vývoje a využívání systémů AI v naší společnosti.
Etická pravidla regulace AI (pdf, 422 kB)
Celá zpráva Centra Karla Čapka Etická pravidla regulace AI je ke stažení zde ve formátu PDF.
Etika AI a roboetika
Stručný průvodce literaturou
Etika umělé inteligence (AI) a robotiky je aplikovanou částí etiky: normativní etika se zaměřuje na systematizaci našich poznatků o etice a dává jim podobu etických teorií, aplikovaná etika se posléze snaží tyto etické teorie aplikovat v praxi. Každý seriózní zájemce o etiku AI a roboetiku by si proto nejdříve měl ujasnit základní etické pojmy, přístupy a teorie, jinak zůstane pouhým amatérem, který pasivně přijímá poznatky ze specializované literatury, aniž by jim skutečně rozuměl a byl schopný je kriticky posoudit.
Následující tři publikace představují vynikající úvod do současné etiky.
James Rachels. The Elements of Moral Philosophy.
Rachelsova kniha je srozumitelným úvodem do etiky, který je přístupný všem zájemcům o tuto oblast filosofie a nevyžaduje žádné předběžné znalosti etiky či filosofie. Kniha se stala natolik populární, že vyšla v několika vydáních.
Russ Shafer-Landau. The Fundamentals of Ethics.
Shafer-Landauova publikace se svou strukturou podobá Rachelsovu úvodu do filosofie, jednotlivá témata a etické teorie však probírá do větší hloubky a výborně se tak hodí k prohloubení Rachelsova výkladu.
Mark Timmons. Ethical Theory. An Introduction.
Třebaže se Timmonsova kniha prezentuje jako úvod do morální teorie, jedná se o pokročilejší text, který k opravdovému pochopení předpokládá nějaké předběžné seznámení s etikou. Autor píše velmi srozumitelně, rigorózně a dobře popisuje současný stav diskuse. Zvláště cenné jsou kapitoly o Kantově etice či morálním partikularismu. Jedinou slabinou této knihy je skutečnost, že se nevěnuje kontraktualismu, velmi vlivné současné morální teorii.
Následující přehled publikací si neklade za úkol být vyčerpávající, měl by však zahrnovat všechna důležitá díla z oblasti etiky AI a roboetiky.
Jako první publikaci doporučuji knihu Wendella Wallacha a Colina Allena Moral Machines. Teaching Robots Right from Wrong.
Druhý z autorů - Colin Allen - je členem Centra Karla Čapka pro studium hodnot ve vědě a technice. Jedná se o zcela zásadní dílo současné roboetiky, které výraznou měrou přispělo k následující diskusi. Publikace sice vyšla již v roce 2009, takže některé příklady či spekulace ohledně možností AI jsou dnes poněkud zastaralé, etická rovina jejich diskuse je stále aktuální. Autoři zavádějí pojem umělých morálních aktérů (artificial moral agents) - AMAs a ukazují, že posun k plnohodnotnému morálnímu aktérství by měl probíhat po osách autonomie - vnímavost k hodnotám. Autoři rovněž diskutují možnost inkorporace morálních pravidel do jednání AI a robotů: přístupy shora (implementace obecných morálních norem a pravidel odvozování), zdola (učení) a jejich kombinace. Každý vážný zájemce o etiku AI a roboetiku by měl tuto publikaci dobře znát.
Derek Leben. Ethics for Robots. How to Design a Moral Algorithm.
Derek Leben je členem Centra Karla Čapka pro studium hodnot ve vědě a technice. Jeho publikace zřejmě představuje nejnovější příspěvek k problematice etiky AI a roboetiky, vyšla totiž v roce 2019. Autor chápe etiku jako nástroj řešení problému koordinace lidské koexistence ve společnosti, který se opírá o teorii her. Výsledná normativní teorie, k níž autor dospívá, je formou Rawlsova kontraktualismu, již Leben aplikuje na konkrétní příklady, např. autonomní vozidla v kolizních situacích či autonomní vojenské systému, a snaží se ukázat, že poskytují lepší řešení než konkurenční etické teorie.
Patrick Lin, Keith Abney, George A. Bekey. Robot Ethics. The Ethical and Social Implications of Robotics.
První z editorů této knihy - Patrick Lin - je členem Centra Karla Čapka pro studium hodnot ve vědě a technice. Publikace je souborem zásadních příspěvků k roboetice a vyšla v roce 2012. Obsahuje úvodní statě (co je to etika, metaetika, jaký je vztah mezi etikou, technikou a robotikou) a dále příspěvky zaměřené na konkrétní oblasti roboetiky: vytváření a programování robotů, využití robotů v moderní válce, právní reflexi robotiky, etické, psychické a sociální důsledky využívání sexuálních robotů, nasazení robotů v lékařském a pečovatelském prostředí a také problematiku práv robotů.
Patrick Lin, Ryan Jenkins, Keith Abney. Robot Ethics 2.0. From Autonomous Cars to Artificial Intelligence.
Patrick Lin a Ryan Jenkins jsou členy Centra Karla Čapka pro studium hodnot ve vědě a technice. Úspěch předchozí knihy a stále rostoucí zájem o hodnotovou dimenzi AI a robotiky vedly k publikaci další kolekce zásadních textů. Je rozdělená do čtyř sekcí. V první z nich se příspěvky zaměřují na problém morální a právní odpovědnosti, druhá pojednává o vybraných tématech sociální robotiky, třetí se věnuje aplikacím robotů, od sexuálních robotů přes internet věcí až po nasazení robotů ve válce. Konečně čtvrtá sekce je zaměřená na budoucnost umělé inteligence a etiky.
Michael Anderson, Susan Leigh Anderson. Machine Ethics.
Další kolekce důležitých textů pochází z nakladatelství Cambridge University Press, kde vyšla v roce 2011. Obsahuje velké množství příspěvků, které se zaměřují na teoretičtější aspekty roboetiky (za jakých podmínek můžeme hovořit o umělých morálních aktérech), přístupy k roboetice založené na Asimových třech (či čtyřech) zákonech robotiky, Kantově, deontologické či utilitaristické etice. Společně s předchozími dvěma kolekcemi představuje současnou diskusi v oblasti roboetiky ve všech jejích důležitých, teoretických i aplikovaných aspektech.
Spyros G. Tzafestas. Roboethics. A Navigating Overview.
Pokud si budete dělat rešerši současné literatury z oblasti roboetiky, nepochybně narazíte na tuto publikaci. To je hlavním důvodem, proč ji zařazuji do svého výběru. Nejedná se však o příliš kvalitní příspěvek do diskuse (ještě horší je autorova další kniha An Introduction to Robophilosophy). Na stránkách této knihy nalezneme pouhý přehled názorů jiných autorů, bez jakékoli hlubší diskuse. Přesto může být publikace užitečná jako jakási sbírka názorů, maximálně stručný přehled etických teorií a problémů ve všech oblastech roboetiky.
Na závěr jsem se rozhodl zařadit nejnovější publikaci Davida J. Gunkela Robot Rights, která vyšla koncem roku 2018.
Z této knihy mám rozpačité pocity, podobně jako z autorovy předchozí knihy The Machine Question, kterou jsem do tohoto výběru nezařadil. Jedná se o první systematické pojednání o právech robotů (většina etiky AI a roboetiky se zabývá problémem, jak by se stroje měly chovat vůči lidem), díky čemuž je kniha nepochybně cenná. Autor také velmi dobře popisuje tzv. Hochfeldovy pozice, na které většina autorů píšících o právech robotů zapomíná. Stručně také zmiňuje základní dvě teorie připisování práv. Další stránky monografie jsou však do značné míry pouhým, byť nesmírně důkladným a vyčerpávajícím, přehledem názorů jiných autorů. Pouze poslední část knihy se věnuje tomuto problému systematičtěji a pokouší se přinést vlastní řešení. V každém případě je tato kniha užitečná, neboť po jejím přečtení získáme poměrně dokonalý přehled o současných názorech na práva robotů.
David Černý
Etika a autonomní vozidla
Zvěd S01E02
Co znamenají autonomní vozidla pro naši budoucnost? Kdo ponese zodpovědnost za chování auta v mezní situaci, pokud bude za volantem „sedět“ počítač? Je rozumné oddalovat nástup aut bez řidiče, i když by jejich uvedení do provozu mohlo zachránit statisíce lidí ročně? A co všichni ti řidiči? A co naše soukromí?
Nové video kanálu Akademie věd Zvěd, tentokrát o etice autonomních vozidel:
Cookies