Novinky

Sex s roboty: nové možnosti sexuálních zkušeností, nebo morální problém?
David Černý
Sex a roboti; tato dvě slova vyvolávají pocit bulvárního námětu, kterému by se seriózní autoři měli raději zdálky vyhnout. Jenže věc není tak jednoduchá a ani skandální, jak by mohl nadpis naznačovat. Robotika se velmi rychle vyvíjí a roboti hrají a budou hrát stále důležitější roli ve všech sférách naší společnosti: budou nám dělat společnost (společenští roboti), ošetřovat nás (ošetřovatelští roboti), diagnostikovat, operovat a léčit (lékařští roboti), zachraňovat v případě požárů, zemětřesení a dalších možných katastrof (záchranářští roboti), budou nás vozit po sinicích (autonomní vozidla), převezmou velkou část našich pracovních pozic, stanou se nepostradatelnými pomocníky v domácnosti, budou za nás prozkoumávat vesmír či nás chránit před útoky nepřátel. Proč by tedy nemohli zaujmout i místo našich druhů a milenců?
Známý odborník na umělou inteligenci David Levy ve své knize z roku 2007 Láska a sex s roboty předpovídá, že do roku 2050 se roboti díky svým vlastnostem stanou pro nás lidi natolik atraktivními, že se do nich budeme zamilovávat, budeme s nimi žít, budeme s nimi uzavírat sňatky a, samozřejmě, budeme s nimi mít sex. To samozřejmě vyvolává celou řadu etických a jiných otázek, např. Co to vlastně znamená mít s někým sex? Jaký je smysl sexu a za jakých podmínek je sex morálně přípustný? A pokud budou lidé s roboty navazovat intimní vztahy, jaké by mohly být dopady pro složité a křehké předivo vztahů utvářející naši společnost?
Sexuální robot? Co to je?
Jak ukazují dějiny lidské sexuality, využívání různých pomůcek či náhražek našich pohlavních orgánů není ničím novým ani neobvyklým. Např. v roce 2005 oznámili archeologové provádějící výzkum jeskyně Hohle Fels ve Švábské Albě (pohoří na jihu spolkové země Bádensko-Würrtenbersko) nález zhruba dvacet centimetrů dlouhého objektu, který byl díky svému odhadovanému stáří zhruba 28.000 let označený za nejstarší dildo na světě. Již v druhé polovině 19. století se v Paříži vyráběly a za asi tři tisíce franků prodávaly velmi dobré napodobeniny pohlavních orgánů či celých lidských těl, které byly tak sofistikované, že napodobovaly dokonce i sekreci žláz a ejakulaci spermatu. Nikoho z nás proto asi nepřekvapí, že se výsledků rozvoje na poli moderní robotiky chopily také společnosti, kteří se zaměřují na vývoj a výrobu sexuálních robotů. Co to však jsou sexuální roboti?
Sexuální roboti jsou v první řadě roboti. Jak však říká Illah Reza Nourbakhsh z Carnegie College, nikdy se neptejte robotika, co to robot vlastně je; definic je k dispozici celá řada a neexistuje žádná shoda na tom, která z nich je správná. Často se však setkáváme s návrhem George Bekeyho, který v roce 2005 definoval robota jako stroj, který vnímá, myslí a jedná – pomocí svých senzorů vnímá své okolí, dokáže zpracovat informace pocházející ze senzorů, využívat je v nějakých byť i třeba rudimentálních kognitivních procesech a nakonec jednat, i kdyby tímto jednáním měl být třeba jen pohyb po místnosti a vysávání prachu. Tato definice sice není všeobecně přijímaná (někdo považuje za roboty i softwarové agenty, jiní zase požadují, aby robot byl také alespoň v nějaké míře autonomní a schopný pohybu v prostoru), blíží se k ní však tak blízko, že se někdy hovoří o sense-think-act paradigmatu operacionální definice robotů.
Sexuální robot je tedy robot, umělá bytost vytvořená člověkem za poměrně specifickým účelem, který určuje návrh, design a využívání těchto mechanických bytostí. Nejčastěji se hovoří o třech podmínkách, jež musí sexuální roboti splňovat: i) musí se podobat lidem (mužům i ženám), ii) musí mít realistické lidské pohyby, iii) musí disponovat nějakou základní umělou inteligencí. Neplatí však, že by každý sexuální robot musel splňovat první podmínku, mohou získávat podobu zvířat nebo i tvorů uzavřených v hranicích lidské fantazie, nejčastěji se však setkáváme a budeme setkávat se sexboty podobným lidem, zvláště lidem velmi krásným a bohatě obdařeným sexuálně přitažlivými fyzickými vlastnostmi. Existující sexboti – např. společnosti Abbys Creations vyrábějící velmi realistické sexboty RealDoll či společnosti TrueCompanion produkující Roxxxy – ženské sexboty – a Rocky – mužské sexboty – sice disponují určitou umělou inteligencí (např. podle stránek TrueCompany mohou vést základní konverzaci, vyjadřovat svou lásku či cítit lidské doteky), její možnosti jsou zatím velmi omezené. I navzdory svým omezením však usnadňuje zaujetí vůči těmto robotům toho, čemu americký filosof Daniel Dennett říkal intencionální postoj: přisuzování lidských mentálních vlastností a postojů, např. plánů, cílů, pocitů či úmyslů. Zakladatel společnosti Abbys Creations MattMcCulen v roce 2015 v jednom rozhovoru prohlásil, že lidé nebudou mít s jeho produkty pouze sex, budou se do nich zamilovávat, bude jim na nich záležet, budou je zkrátka vnímat jako partnery.
Co je to vlastně sex, natož s robotem?
Sexuální roboti jsou zajímavou ilustrací faktu, že již samotný vývoj a následná existence nějaké formy umělé inteligence vyvolávají důležité etické otázky. Např. v případě vojenských robotů se můžeme oprávněně ptát, zda je morální takové stroje vyvíjet a vyrábět, jejich existence je tedy morálně sporná. Současná diskuse na poli etiky umělé inteligence a roboetiky se nejčastěji zaměřuje na problém regulace chování těchto lidských výtvorů, u některých robotů je však otázka morálnosti jejich účelu neméně důležitá, což platí zvláště, byť ne výlučně, v případě sexbotů. Uvidíme, že na ně zaměřená etická diskuse se nevěnuje ani tak pravidlům jejich chování, aby toto chování bylo eticky korektní a lidem prospěšné, ale spíše kladům a záporům jejich spolu-existence ve složitém předivu lidských společenských vztahů.
Sex můžeme mít s leckým a lecčím, kdybychom ho však chápali takto široce, nevzbuzoval by sex s roboty specifické etické otázky. Vyvolává je snad sex s vibrátorem? V tomto triviálním smyslu samozřejmě sex s roboty mít můžeme, stejně jako mohly mít ženy sex se sochami v rámci religiózního obřadu obětování svého panenství. Nás zde ale zajímá jiný, poněkud bohatší a úžeji vymezené chápání fráze „mít se s“. Když se nad tím totiž zamyslíme, ve skutečnosti s vibrátorem sex mít nemůžeme; jistě, můžeme stimulovat své sexuální orgány a dosáhnout orgasmu, jenže pokud bychom každou takovou aktivitu chápali jako interpretaci výrazu „mít sex s“, potom by masturbace znamenala, že máme homosexuální a incestní sex sami se sebou.
Mark Migotti a Nicole Wyatt proto tvrdí, že idea sexu zahrnuje sdílené aktérství: já mám sex s tebou, pouze pokud ty máš sex se mnou. Sex představuje aktivitu, která nás sjednocuje ve společném aktérství, v němž se přijímáme jako partneři a vzájemně se obohacujeme dobrem, jenž sexuální aktivita přináší (intimita, vyjádření lásky, sdílení rozkoše apod.). S vibrátorem sex mít nemůžeme, protože není naším partnerem a nemůže s námi tuto aktivitu sdílet. U sexuálních robotů tomu tak již dnes být nemusí (navzdor jejich zatím nepříliš rozvinuté umělé inteligenci jim zřejmě budeme přisuzovat lidské charakteristiky), a s rozvojem jejich umělé inteligence je nebudeme více a více považovat za pouhé nástroje, s nimiž vlastně onanujeme, ale za partnery, s nimiž se sjednocujeme ve společném a sdíleném aktu lásky – s nimiž máme sex.
Je zřejmé, že toto vymezení významu fráze „sex s roboty“ eticky relevantní je, stačí si třeba uvědomit, že zatímco používání sexuálních pomůcek nechápeme jako nevěru, sex s roboty se může ocitnout na seznamu věcí, které jako nevěru chápat budeme. Stejně tak je zřejmé, že budeme-li sexuální roboty chápat jako partnery, může mít tento vztah vážné dopady na vnímání sexu obecně, na chápání mezilidských intimních vztahů či roli rodiny v moderní společnosti. Nehodnotíme zde tedy pravidla chování sexbotů; jistě, jsou důležitá, ale pouze od okamžiku, kdy si ujasníme zásadnější etickou otázku: je morálně přípustné, abychom vyvíjeli, vyráběli a využívali sexuální roboty?
Sex s roboty? Proč ne?
Jakým způsobem bychom se mohli v morální rovině pokusit ospravedlnit sex s roboty? Lze se nepochybně odvolat na známu Millův princip újmy, hrající velmi důležitou roli v moderní pluralitní liberální společnosti: pokud mé jednání nepůsobí někomu újmu, můžu si dělat v podstatě co chci, a stát – včetně jeho obyvatel – by to měl respektovat (i kdyby se to někomu nelíbilo). V tomto smyslu rozhodovaly některé americké soudy o homosexuálním intimním životě; jednoduše řečeno, nikomu neubližuje a neměli bychom strkat nos do toho, co lidé ve svých ložnicích dělají. Tato argumentace není však dostatečně silná. Nesnaží se totiž prokázat, že sex s roboty je morálně přípustný či správný, pouze poukazuje na to, že když svým jednáním nikomu neubližujeme, stát by ho neměl regulovat.
Sex se sexboty bude velmi realistický a stane se tak zdrojem mnoha benefitů, jež nám sexuální život přináší. D. G. Blanchflower a A. J. Oswald ve své studii Money, Sex and Happiess zjistili, že pokud zvýšíme frekvenci sexuálních styků z jednou měsíčně na alespoň jednou týdně, budeme se cítit šťastnější, jako kdyby nám zvýšili roční plat o 50.000 dolarů. Pravidelný sex je navíc spojený s udržováním tělesné váhy či jejím snížením, redukcí stresu, snížením tlaku a podporou srdeční činnosti, u mužů se méně často rozvine rakovina prostaty a lépe také spíme. Sex s roboty prostě bude příjemný a prospěšný našemu zdraví; a to je nepochybně důležitý faktor ovlivňující jeho morální přípustnost.
Někteří autoři – např. známý jihoafrický filosof David Benatar – se domnívají, že morálně přípustný sex je pouze takový, který je projevem skutečné lásky. Není úplně snadné této tezi porozumět. Musí být každý pohlavní styk projevem lásky? Taková podmínka je, zdá se mi, příliš silná, vždyť i dva milující se lidé mohou mít někdy sex, který je projevem živočišné vášně a touhy. Možná Benatar myslí, že morálně přípustný sex je pouze takový, který probíhá v rámci páru, jenž se miluje; nemusí tedy, tady a teď, být projevem lásky, musí však být součástí láskyplného vztahu. I kdyby měl Benatar pravdu, vylučoval by jeho argument pouze určité formy sexu s roboty, právě ty, které spíše odpovídají sexu s nějakou sexuální pomůckou. Pokud však budeme robotům přisuzovat lidské vlastnosti – a s rozvojem jejich umělé inteligence to bude stále korektnější – potom se do nich zamilovávat budeme, budeme je chápat jako naše skutečné partnery, kteří nám budou lásku – potvrdí-li se Levyho předpověď – oplácet.
Sex s roboty však můžeme morálně ospravedlnit i jinak. Světová zdravotnická organizace nedávno přijala Deklaraci sexuálních práv, kterou sepsali účastníci 13. Světového sexuologického kongresu v roce 1997. Tato deklarace považuje sexuální práva za základní lidská práva založená na svobodě, důstojnosti a rovnosti všech lidí. Nicméně – a to je důležité – tato práva nejsou dostupná všem, což by mohly změnit právě sexuální roboti.
Uvažme např. situaci lidí, kteří jsou příliš nesmělí, nebo mají komplexy z nedostatku své sexuální zkušenosti, sex v jejich životě proto chybí. Sexuální robot by mohl chybějí dobro sexu a jeho benefitů nahradit, kromě toho by také mohl zvýšit sebevědomí a sexuální dovednosti svého partnera a připravit ho tak na partnerský život s reálným mužem/ženou. Také lidé trpící nějakým postižením, lidé nepovažovaní většinovou společností za dostatečně atraktivní či starší lidé, které smrt připravila o partnera a oni nemají chuť ani sílu hledat si nového, by mohli mít velký prospěch z navázání sexuálního vztahu se sexuálním robotem. Poněkud kontroverznější je situace tzv. sexuálních deviantů. Musíme si však uvědomit, že za svou deviaci nemohou, navíc se vůči nim matka příroda zachovala nesmírně krutě a odsoudila je k celoživotnímu celibátů. Speciální sexboti – v dětské, zvířecí či jiné podobě – by mohly představovat řešení jejich tíživé situace.
Sexuální roboti by však mohli být prospěšní i pro partnery, kteří žijí v jinak spokojeném vztahu, mají však velmi odlišné požadavky na frekvenci milostného aktu. Celá řada studií ukazuje, že tato různá „chuť na sex“ je jedním z nejčastějších důvodů napětí v partnerském vztahu, může vést k nevěře či rozpadu celého vztahu, v každém případě je však zdrojem stresu a snížení kvality lidského života.
Zde se však na chvilku zastavme, abychom si blíže ukázali komplexnost problematiky etického hodnocení sexbotů. Mnozí autoři – např. Neil McArthur – předpokládají, že pokud má jeden z partnerů větší potřebu sexuálního styku, může využívat sexuálního robota. Problém je samozřejmě v tom, že sex s robotem – jak jsme ho definovali – není to samé, jako třeba sex s vibrátorem. Bude druhý partner, s nižší potřebou sexu, chápat jednání svého druha či družky jako nevěru? A pokud ano, nepřinese sex s robotem nakonec více strasti než slasti? Abychom na tuto otázku mohli odpovědět, nestačí jen přemýšlet a zvažovat různé scénáře, musíme mít k dispozici také nějaká empirická data. V rámci našeho Centra Karla Čapka pro studium hodnot ve vědě a technice proto spouštíme projekt, v jehož rámci bychom rádi potvrdili či vyvrátili naši pracovní hypotézu: čím více budou lidé robotům přisuzovat lidské charakteristiky, tím více budou považovat sex s robotem za nevěru. Možnosti využití sexbotů by se tím zřejmě snížily, stále by ale existovalo nezanedbatelně velké množství lidí, jimž by přinášeli potěšení, slast, pocit vzájemnosti a intimity, a byli by tak pro ně důležitým dobrem obohacujícím jejich život.
Sex s roboty? Opatrné ano
Sex s roboty má samozřejmě i své odpůrce, kterým jsem se v tomto článku nemohl věnovat. Někdo může požadovat, aby sex byl pouze a jedině vyjádřením skutečné lásky, jiní jsou zase přesvědčení, že sex je morálně přípustný pouze v manželství, přičemž si manželství představují jako sjednocení muže a ženy spojené plodivým aktem (roboti zatím děti mít nemohou, ale kdo ví, co nám buducnost přinese), další si zase myslí, že morálně přípustné nejsou ani sexuální pomůcky, natož pak roboti, další autoři se zaměřují na možné negativní důsledky sexu s mechanickými milenci. Tyto námitky samozřejmě musíme brát vážně, myslím si ale, že když srovnáváme benefity spojené se sexem s roboty s možnými negativními důsledky, benefity nakonec přeci jen převáží. Takže: sex s roboty ano, ale pokud by se např. ukázalo, že rozbíjí mezilidské vztahy nebo posiluje sexismus a stereotypy vůči ženám či mužům, budeme muset toto opatrné ano znovu promýšlet a v případě nutnosti revidovat.

Etika umělé inteligence: kde jsme a proč nevíme, kam dál
David Černý, Jiří Wiedermann
Umělá inteligence (UI) se ve všech svých rozličných podobách a ztělesnění stala za poměrně krátkou dobu všudypřítomnou součástí naší společnosti. Komunikuje s námi v chytrých telefonech, počítačích a tabletech, dohlíží na finanční transakce platebními kartami, dokáže nás porazit v oblastech, v nichž jsme si dlouho mysleli, že nás ohrozit nemůže, jako jsou šachy či populární televizní soutěž Jeopardy! Umělá inteligence poskytuje rady lékařům při řešení obtížných etických dilemat, diagnostikuje některé choroby a je v tom stále lepší a lepší, řídí společenské či záchranářské roboty a v horizontu několika let (možná desetiletí) převezme naše místo řidičů a stane se součástí plně autonomního provozu.
UI může být prospěšná, pokud ji budeme užívat dobře a pro správné účely, může se ale také stát nástrojem rostoucího dohledu státní moci, který nás bude sledovat na každém kroku a dohlížet na to, abychom se chovali přesně tak, jak si stát přeje. Může posílit mechanismy demokratické správy naší společnosti, stejně tak se ale může stát nástrojem jejich potlačování. Může být vynikajícím sluhou, ale velmi špatným pánem. Aby se tak nestalo, je nezbytné najít řešení problému, jak by se UI měla chovat, aby se chovala správně, jakými pravidly by se měla řídit, aby její rozhodování a jednání bylo eticky správné a neubližovalo nám.
Hodnotová dimenze (co je dobré a správné) by měla vstupovat do všech fází vývoje, návrhu designu, testování, implementace a využívání systémů UI. Již samotná existence AI a její účel může mít výrazný etický náboj, jako tomu je například v případě robotických žokejů, kteří se na hřbetech závodních velbloudů prohánějí po závodních drahách Kataru. Kratochvíle bohatých šejků, kteří donedávna v podstatě zotročovali malé chlapce z chudých rodin a nedávali jim dostatečně najíst, aby si udrželi nízkou váhu a výhodu nad jinými žokeji. Jejich robotičtí náhradníci svou existencí umožňují pokračování těchto závodů a třebaže sami nedisponují jednáním, jež by mělo být podřízeno nějakým etickým normám, učinili Katar lepším a eticky korektnějším místem.
Sofistikovanější systémy UI však takto eticky impaktní (jak tyto stroje nazývá známý etik UI z Dartmouth College v USA James H. Moor) nejsou, v jejich případě lze hovořit o funkční morálce, tedy určité „citlivosti“ vůči hodnotám a nějaké míře autonomie. Například medicínský expertní systém MedEthEx, navržený počítačovým vědcem Michaelem Andersonem a jeho ženou, filosofkou Susan Andersonovou, v podstatě žádnou autonomii nemá, je však schopný provádět základní etickou rozvahu a poskytovat lékařům rady při řešení eticky svízelných otázek lékařské praxe. Autopiloti řídící letadla zase mají poměrně vysokou autonomii, jejich „rozvaha“ však není přímo založená na hodnotách, ale spíše na parametrech letu, komfortu a bezpečí pasažérů. Od autonomních vozidel očekáváme, že budou jednoho dne v nedaleké budoucnosti plně autonomní (odvezou nás z bodu A do bodu B po všech běžných typech vozovky) a současně budou disponovat sofistikovaným rozhodovacím mechanismem distribuce újmy v případě kolize. Hudbou budoucnosti potom jsou plnohodnotní morální aktéři – jak jim říkají průkopníci na poli etiky UI Wendell Wallach a Collin Allen –, kteří dokáží nejen formulovat etické soudy a aplikovat je na své vlastní jednání, zvládnou také tyto soudy nějakým způsobem ospravedlnit.
Asimovovy zákony robotiky aneb když roboti blázní
Jak by měla v praxi vypadat pravidla, jimiž by se systémy UI mohly řídit? A jakým způsobem bychom jim tato pravidla měli vštípit? Jednou velmi populární a široce diskutovanou možností je tzv. přístup „shora“: zvolíme si nějaká obecná pravidla jednání, která zabudujeme do příslušného software a prostřednictvím formálního aparátu deontické logiky je obohatíme odvozovacími pravidly.
Myslíme si, že drtivá většina z nás zná amerického vědce a neuvěřitelně plodného spisovatele sci-fi Isaaca Asimova, který společně s Johnem W. Cambellem v roce 1940 formuloval tzv. tři zákony robotiky, jež mu svou obecností a nesnadnou aplikovatelností v praxi – jak Asimov sám přiznává – umožnily stvořit celou řadu nezapomenutelných příběhů. Tyto tři zákony robotiky se poprvé objevily v roce 1942 v povídce Runaround (v češtině Rychlík) a mají následující podobu:
- První zákon: Robot nesmí ublížit člověku, nebo svou nečinností dopustit, aby člověku bylo ublíženo.
- Druhý zákon: Robot musí uposlechnout příkazů člověka, kromě případů, kdy tyto příkazy jsou v rozporu s prvním zákonem.
- Třetí zákon: Robot musí chránit sám sebe před zničením, kromě případů, kdy je tato ochrana v rozporu s prvním nebo druhým zákonem robotiky.
Dohromady tyto zákony představují principy, jež by v praxi měly zajišťovat eticky korektní jednání UI (v Asimovových povídkách a novelách jsou tyto zákony pevnou součástí robotických pozitronických mozků). I dnes má tento přístup některé zastánce (ti však počet těchto zákonů rozšiřují o další, např. o zákon, že robot musí chránit sobě nadřazeného robota, pokud to není v rozporu s jinými zákony, či že musí vykonávat povinnosti, pro něž je určený, opět pokud to neodporuje vyšším zákonům), již Asimov však ve svých povídkách sebraných ve sbírce Já robotukázal, že jeho zákony robotiky mohou UI dostat do svízelných situací. Vezměme si např. první zákon, podle kterého robot nesmí lidem působit újmu nebo dovolit, aby újma nastala. Znamená to, že třeba chirurgický robot by nesměl provést řez do pacientova těla? V první povídce sbírky Já robotvypráví Asimov o Robbiem, který zachránil malou Glorii před řítícím se lokotraktorem a strhnul ji stranou tak silně, že jí vyrazil dech. Bylo jeho jednání porušením 1. zákona, nebo nebylo? Je nepochybné, že Glorii nějakou újmu způsobil, bylo to ale eticky ospravedlněné způsobení újmy? A pokud ano, jakým způsobem se UI má v praxi rozhodovat? Jaká újma je oprávněná a jaká již není? Když robot zabije člověka, aby zachránil sto jiných, je to morálně korektní způsobení újmy?
Obecný problém spojený se všemi přístupy „shora“, nejen tedy s Asimovovými zákony robotiky, spočívá v tom, že jednotlivá pravidla jsou příliš obecná a není zřejmé, jak bychom v nějaké konkrétní situaci měli sestoupit z obecnosti pravidel ke konkrétnosti jedinečného a pro tuto situaci platného morálního soudu. Navíc hrozí, že se jednotlivé zákony dostanou do konfliktu, který ohrozí samotnou možnost UI myslet, přijímat rozhodnutí a jednat. Velmi dobře to ukazuje povídka Rychlík z roku 1942. Dva astronauté pobývající na povrchu Merkuru poslali svého robota Rychlíka k blízkému selénovému jezírku, aby z něj získal selen, nezbytný pro fungování slunečních baterií a samotné přežití obou mužů. Vzhledem k tomu, že selénové jezírko bylo díky jisté anomálii pro robota hrozbou a rozkaz přinést selen nebyl vydaný dostatečně důrazně, došlo ke kolizi druhého a třetího zákona a robot se ocitl ve stavu ekvivalentnímu lidské opilosti; neustále obíhal jezírko po trajektorii odpovídající rovnováze mezi hrozícím nebezpečím a síle druhého zákona. Teprve chladnokrevná úvaha a jednání obou mužů vedly k prosazení prvního zákona v robotově mozku a jeho návratu do normálu. Můžeme si také připomenout povídku Lhář!, v níž robot Herbie náhodou získá schopnost číst myšlenky a řídě se prvním zákonem robotiky, lže lidem kolem sebe, aby jim pravdou neublížil. Výsledkem ale je, že ublížil všem. Všechny tyto problémy ukazují, že vtisknout umělé inteligenci Asimovovy tři zákony robotiky (či nějaké jejich rozšíření) nepředstavuje slibnou metodu vytváření eticky korektní UI.
UI je dobrý počtář… Tak ji nechme počítat
Možná bychom si měli vzít poučení z předchozího nezdaru a namísto několika obecných a v praxi obtížně aplikovatelných pravidel bychom měli zvolit pravidlo jediné, s nímž podobné problémy nebudou. Jak by takové pravidlo mohlo vypadat? Začněme konkrétním příkladem.
Autonomní vozidla (AV) sice sníží počet dopravních nehod (v ideálním případě až o 93 %, protože právě takové množství nehod je způsobeno řidiči), nehodám se však nevyhnou zcela. Jak by se měla v takovém případě rozhodovat? Jednou z možností je, že řídící software AV nejdříve naučíme kategorizovat možnou újmu do tří velkých skupin: majetková, zdravotní a na životech. Posléze vymyslíme nějaký systém kvantifikace těchto forem újmy (můžeme to udělat různými způsoby, které zde ale nemůžeme rozvádět) a do rozhodovacích mechanismu AV vtělíme funkci, která v případě hrozící kolize přiřadí všem možných trajektoriím číslo, udávající celkovou újmu, pokud si AV tuto trajektorii zvolí. A nakonec to nejdůležitější: jediným etickým pravidlem, jimž se AV budou řídit, bude jednoduché pravidlo minimalizace újmy. Řekněme, že se AV musí rozhodnout mezi dvěma trajektoriemi: první povede ke smrti jednoho člověka, druhá ke smrti tří lidí. Protože celková újma je v prvním případě nižší, zvolí si AV tuto variantu, i když svou volbou usmrtí jednoho člověka.
Etika, která požaduje minimalizaci újmy, se nazývá utilitarismus a představuje jeden z nejrozšířenějších etických systémů. Je to celkem pochopitelné, neboť obsahuje pouze jediné pravidlo, které se navíc zřejmě dá velmi dobře aplikovat v praxi. V případě AV jsme viděli její negativní stranu (minimalizaci újmy), má ale také stranu pozitivní (maximalizuj dobro); dobré – eticky správné – jednání je potom prostě takové, jehož důsledky maximalizují dobro (v případě, že má dobré i špatné účinky), nebo které minimalizuje újmu (zaměřujeme-li se pouze na účinky negativní, jako v případě AV).
Je tedy utilitarismus svatým grálem etiky UI? Můžeme s klidným srdcem říci, že všechny systémy UI by se měly řídit touto etikou, a pokud se budou řídit touto etikou, budou jednat správné a pro nás lidi blahodárně? Bohužel, nemůžeme.
Utilitarismus je zvláštní a do značné míry extrémní etika. Říká nám totiž, že máme maximalizovat dobro bez ohledu na to, jak tuto maximalizaci provedeme. V případě AV tak hrozí, že řídící software našeho auta obětuje nás i s rodinou, bude-li to znamenat, že způsobí méně újmy. Kdo z nás by si ale takové auto kupoval? Opravdu bychom našli odvahu sednut si do vozidla, které nemilosrdně prověřuje všechny možné trajektorie jednání a volí způsobem, v němž je jeho posádka pouhým členem morální rovnice rovnocenným se všemi ostatními? A co třeba pečovatelští roboti? Představme si, že si v budoucnosti pořídíme vysoce sofistikovaného robota, který je naprogramovaný pečovat o naše potomky. Přáli bychom si, aby se řídil utilitarismem, i kdyby to znamenalo, že když bude náš potomek v ohrožení života, robot se vydá zachránit jiné dva lidi, kteří se shodou okolností také ocitli v ohrožení života? Tyto problémy ukazují, že třebaže je utilitarismus jednoduchý a v praxi víceméně snadno aplikovatelný, v mnoha případech bychom se jen obtížně smiřovali s tím, kdyby se jím UI řídila.
Dodržuj pravidla a vše bude OK
Problém s utilitarismem, alespoň v té nejznámější podobě, o níž jsme hovořili, spočívá v tom, že neuznává existenci žádných morálních norem, např. normy „nikdy nesmíš zabít nevinného člověka“, „nikdy nesmíš lhát“, „nikdy nesmíš dát přednost ostatním před svým majitelem“ apod. Umělé inteligenci by namísto „nikdy nelži“ uložil, aby spočítala zisky a ztráty a v případě, že jejich poměr nahrává lhaní, klidně by lhala. Viděli jsme však, že této přístup má celou řadu problémů (Směl by např. vojenský robotický systém obětovat několik civilistů, aby zabil hledaného teroristu?), možná bychom se proto měli pokorně vrátit k hledání nějakých obecných etických principů. Namísto abychom je však UI vštípili pouze „shora“, formou pravidel, pokusíme se k nim přistupovat i „zdola“ a učit je, jak pravidla v praxi používat. Díky této kombinaci obou přístupů si UI sama utvoří jakási prostřední, překlenovací pravidla, díky kterým v konkrétní situaci přemostí obecnost hlavních pravidel a jedinečnost dané situace.
12. 12. 2018 publikovala High-Level Expert Group on Arificial Intelligence při Evropské komisi návrh etických směrnic pro věrohodnou UI (Ethics Guidelines for Trusthworthy AI), v níž se o podobný přístup pokouší. Tato věrohodná UI by měla:
- Respektovat lidskou důstojnost, práva a hodnoty;
- Být technicky natolik robustní, aby byla transparentní a spolehlivá.
Věrohodná UI by měla těchto eticky významných cílů dosáhnout tím, že bude respektovat pět základních etických principů (vzhledem k důrazu na principy se tomuto přístupu říká principlismus): princip dobročinění (čiň dobro), princip neškození (neubližuj), princip autonomie (respektuj autonomii lidských jedinců a neomezuj ji), princip spravedlnosti (jednej s lidmi spravedlivě) a konečně princip transparentnosti (jednej transparentně). Z těchto pěti principů je možné odvozovat konkrétnější a konkrétnější morální normy, jimiž by se UI měla v praxi řídit.
I tento přístup však naráží na určitá úskalí, zvláště když se jednotlivé principy dostanu do sporu a je třeba rozhodnout, který z nich musí dostat přednost. Princip spravedlnosti by například medicínskému expertnímu systému ukládal, že při rozdělování vzácných zdrojů – např. transplantovatelných orgánů – musí spravedlivě zvážit všechny faktory a všechny pacienty. To ale může znamenat, že nad některým pacientem vyřkne ortel smrti, neboť mu odepře vitálně důležitý orgán. Vzhledem k tomu, že i tímto způsobem (neposkytnutí orgánu) způsobí pacientovy újmu, je jeho jednání v souladu či v rozporu s druhým principem? Nebo zvažme řídící software autonomního vozidla, které se v kolizní situaci rozhoduje, jakým směrem se vydá; toto rozhodování je rozhodováním o životě a smrti lidí. Smí taková rozhodování činit? A není zde v rozporu první princip (čiň dobro, tj. zachraň nějakého člověka) s druhým principem (neškoď, tj. nesmíš nikoho zranit či usmrtit)?
Tato dilemata se v případě obecných etických principů budou objevovat neustále a pokud chceme UI naučit, jak v konkrétních případech volit, musíme sami vědět, co v nich je morálně správné a co již není. Problém je samozřejmě v tom, že to mnohdy sami nevíme, proto podobné situace označujeme za morální dilemata.
Jak dál, když nevíme kudy kam?
Viděli jsem, že třebaže současná etika disponuje propracovanými etickými systémy, jejich využití k regulaci chování UI nebude vůbec jednoduché. Možná se budeme muset vzdát představy, že UI se bude muset podřídit jen jedinému etickému systému a představy, že každá forma UI a jejího ztělesnění se bude řídit stejnými etickými pravidly.
Podívejme se opět na autonomní vozidla. Tlak na jejich zavedení do praxe je zřejmý a nepochybně morální povahy: zachráníme tak obrovské množství lidských životů. Je proto dobré, aby AV brázdila naše silnice co nejdříve a aby se celá naše doprava nakonec stala autonomní. Tohoto cíle však nedosáhneme tak, že budeme vyrábět AV, která si lidé nebudou chtít kupovat, jimž odmítnout svěřit své životy a životy svých nejbližších. Možná proto budeme muset vytvořit hybridní etický systém (složený z více než jednoho etického systému), který do určitého poměru škody (jehož hodnotu můžeme určit empirickým výzkumem názorů potenciálních uživatelů AV) bude vždy dávat přednost posádce (bude tedy respektovat obecnou normu „ochraň posádku“), nad tímto poměrem se však začne chovat jako chladný počtář a srovnávat jednotlivé újmy (utilitarismus).
V případě vojenských robotů zase budeme požadovat, aby se v určitých situacích nikdy nechovali jako chladní počtáři sčítající a odečítající životy a řídili se pravidlem „nikdy nesmíš přímo usmrtit civilistu“, zároveň však budeme chtít, aby chápali morální rozdíl mezi přímým zabitím a zabitím nepřímým (např. v případě, že autonomní dron bude bombardovat muniční sklady a předpokládat, že tato akce povede ke smrti nevinných civilistů, které však neusmrtí přímo). Je ale zřejmé, že princip zakazující působit újmu bude muset ustoupit nějaké konkrétnější verzi, aplikovatelné na válečný stav, např. „smíš usmrtit nepřátelského vojáka, nikdy však civilistu.“
Lékařští roboti budou v některých situací jednat ve shodě s utilitarismem (např. při rozhodování o rozdělení vzácného léku), jindy však ne (např. když by uvažovali, zda smějí usmrtit jednoho pacienta a jeho orgány použít na záchranu životů pěti jiných pacientů). Kromě toho budou muset získat jasná pravidla vysvětlující pojem újmy; újmou v kontextu operace není amputace nohy, třebaže v jiném kontextu nepochybně újmou je. Ani v případě aplikace prvního principu nebudou mít snadnou situaci. Pro některé pacienty může být dobré zemřít (trpí neutišitelnou bolestí), bude tedy eutanazie v souladu s tímto principem? Může s ním být v souladu zatajení vážnosti diagnózy z paternalistických důvodů (ve prospěch pacienta)? A opět, nebude to v rozporu s principem autonomie? Na druhou stranu, existují situace, kdy je pacientovi lepší diagnózu v plné šíři a závažnosti nesdělit (terapeutické privilegium), měla by tedy UI upřednostnit princip neškození před principem ukládající respekt k lidské autonomie? Jak ji naučíme tyto delikátní situace rozlišovat?
Všechny tyto problémy ukazují, že zatím více méně tápeme v temnotách. Prozatím to není velký problém, protože UI zatím dokáže řešit jen úzce vymezené problémy v daných oblastech, pro něž není tak obtížné stanovit nějaká etická pravidla. S narůstáním schopností UI a šířkou jejích aplikací ve společnosti se však potřeba jasně stanovit etická pravidla jejich chování stane skutečně urgentní a přijít s nějakým dobrým a široce přijímaným řešením nebude vůbec snadné.
Vyšlo v časopise Computerworld.

Cookies