Novinky
O vztahu hodnot, etiky a umělé inteligence
Vítězná esej Kamily Houškové
Často se zdá, že vývoj umělé inteligence (UI) je pouze v rukou techniků a programátorů. Poslední dobou je ale čím dál víc očividné, že do jejího vývoje bude potřeba zapojit i ostatní vědní a humanitní obory. Neurologií se vědci inspirovali při vývoji neuronových sítí. Ekonomie zkoumá, jaké dopady by měla robotizace a automatizace na trh práce. Nejvíc je ale s otázkou umělé inteligence spojena filosofie, konkrétně etika. Ta řeší, za jakých podmínek je správné algoritmy používat, a kdy je lepší se obejít bez nich.
Podle jedné definice se obor umělé inteligence zabývá tvorbou strojů řešících úlohy tak složité, že by jejich řešení vyžadovalo lidskou inteligenci. Složité úlohy mohou být dvojího typu. Nekomplexní UI řeší problémy, které budou mít stejný výsledek, ať už se objeví kdykoliv a kdekoliv. To, že je UI nekomplexní neznamená, že úkol, který řeší je jednodušší než ten, který řeší ta komplexní. Pod nekomplexní UI totiž patří i velmi složité matematické operace, které by mnohdy nebyli schopni vyřešit ani lidé. Naopak to, že je UI komplexní neznamená, že se zabývá složitějšími úkoly, ale jen to, že se správný výsledek bude měnit v závislosti na okolnostech. Malá holčička má za úkol jít do obchodu a koupit rohlíky. Přijde do obchodu a zjistí, že rohlíky došly. Ví, že doma mají málo pečiva, obchod brzy zavírá a zítra je neděle, takže obchod bude zavřený. I kdyby robot nebo jakýkoli jiný algoritmus měli všechny tyto informace, pokud příkaz zněl “Kup rohlíky”, jejich systém selže a udělají jen to, co jejich programátor nastavil, že by měli udělat. Ten ale nemůže robota připravit na úplně všechny situace, které by ho kdy mohly potkat. Jelikož neví, na co jiného tato konkrétní rodina zrovna bude mít chuť, řekne prostě robotovi, aby se vrátil domů a zeptal, co má dělat. V tu chvíli ale už může být pozdě, protože obchod přece právě zavírá. Na rozdíl od něj holčička ví, že mají všichni kromě maminky rádi koblihy, a proto koupi jednu bagetu a tři koblihy. Zatím se tuto komplexní UI vytvořit nepodařilo. To není velký problém, znamená to ale, že na mnoho úkolů se UI zatím nedá plně využít.
Různým typům UI bude potřeba sdělovat naše cíle různými způsoby. Komplexní UI bude potřebovat znát celkový kontext, ve kterém se rozhodnutí dělá, zatímco té nekomplexní bude stačit znát zadání. V obou případech je stanovení cíle velmi důležitý krok. Během vývoje i využívání UI na něj musíme myslet, protože pokud bychom ho zanedbali, mohlo by se stát, že stroje nebudou dělat to, co po nich chceme. Někdy si chyby včas všimneme a stihneme stroj zastavit dřív, než problém nastane. Ne vždy je ale čas zasáhnout a ne vždy na stroje někdo dohlíží. Proto je k tomu, aby nám byly prospěšné, potřeba, aby dělaly to, co po nich chceme.
V případě nekomplexní UI je potřeba dávat jasné rozkazy. Pokud naše rozkazy nebudou dostatečně promyšlené, může se stát, že si je vysvětlí špatně. Tak tomu bylo například v příběhu robota Rychlíka z Asimovovy knihy Já, robot.1 V ní se předpokládá, že všichni roboti se řídí třemi zákony robotiky:
- Robot nesmí ublížit člověku nebo svou nečinností dopustit, aby bylo člověku ublíženo.
- Robot musí uposlechnout příkazů člověka, kromě případů, kdy jsou tyto příkazy v rozporu s prvním zákonem.
- Robot musí chránit sám sebe před poškozením, kromě případů, kdy je tato ochrana v rozporu s prvním, nebo druhým zákonem.
Rychlík měl za úkol získat selen z nejbližšího selenového jezírka. K němu se ale nemůže přiblížit, protože by se tím vystavil nebezpečí, čímž by porušil 3. zákon. Kvůli 2. zákonu ale musí pokračovat v plnění úkolu, přestože se ukazuje, že kvůli 3. zákonu je tento úkol nesplnitelný. Kdyby byl Donovan při zadávání úkolu opatrnější a nenakázal Rychlíkovi jít k nejbližšímu selenovému jezírku, mohl by místo toho jít k vzdálenějšímu ale bezpečnějšímu. Takhle musí běhat kolem toho nejbližšího, přestože je pro něj nemožné se k němu přiblížit a rozkaz vykonat. Každopádně vždy se budou dělat chyby a proto je záhodno do přístroje naprogramovat vzorce chování, které má využít v krizových či nepředvídatelných situacích, podobných jako je tato. Většinou jsou zařízení dlouze testována, aby je programátoři připravili na co největší množství možných situací, které mohou nastat. K tomu, aby to udělali, ale musí vědět, jak přesně chtějí, aby se stroj v oné situaci zachoval. To není vždy úplně jasné, protože neexistuje žádný jeden soubor hodnot řazených podle důležitosti, který by byl společný pro všechny lidi na planetě. Proto je například nemožné jednotně vyřešit morální dilema u autonomních vozů. Každopádně by bylo lepší už tuto debatu ukončit a začít první samo-řízená vozidla prodávat, jelikož podle průzkumů by se tím zmenšil počet dopravních nehod až o 90%.2
Ke komplexním UI bude potřeba přistupovat úplně jinak, protože potřebují znát spíše kontext problému a naší motivaci než úkol sám o sobě. To je obzvláště složité, protože jsme ještě nikdy nepotřebovali někoho cíleně učit hodnotové orientaci. Lidé ji samovolně získají socializací a nikoho jiného jsme ji učit nepotřebovali. Stálo by za to vytvořit obor psychologie propojený s informatikou, který by měl za úkol zjistit, co reálně chceme a robotům to pak sdělit, ale to bychom je nejdřív museli naučit abstraktnímu myšlení, aby si pojmy jako je právě štěstí dokázali vysvětlit. U komplexní UI se totiž předpokládá, že úkol provede na základě pochopení našich motivací spíš než na základě pečlivého následování protokolu. Je tedy potřeba, aby správně poznala naše motivace, přijala je za své a chovala se podle nich. Příkladem toho, co se stane, pokud robot nepochopí komplexnost našich motivací, je Asimův příběh robota Herbie. Díky své schopnosti číst myšlenky „ví“, co lidé chtějí, a jako správný robot dělá vše pro to, aby byli spokojení. Když zjistí, že některé informace mohou lidi citově zranit, začne všem říkat jen to, co chtějí slyšet. Nechápe ale, že lidé by potřebovali, aby jim říkal pravdu a podle prvního zákona robotiky dělá to, o čem si myslí, že jim ublíží nejméně. Kvůli tomu se ale stává nepoužitelným. Jeden ze způsobů, jak zjistit motivace člověka je tzv. inverse reinforcement learning popsaný v roce 2000 Andrewem Ngemem a Stuartem Russellem. Stroj pozoruje, co člověk dělá, a z toho vyvozuje, jaké k tomu má důvody. O něco pokročilejší, ale potenciálně méně přesný, je cooperative inverse reinforcement learning, kde člověk může mluvit se strojem a své motivace mu vysvětlovat. To sice ušetří stroji čas, protože pochopí hlavní motivaci člověka rychleji, ale přináší to s sebou riziko přílišné generalizace, protože člověk všechny své dílčí motivace nevysvětlí a robot si jich za použití této metody nevšimne spíše než za pomoci té první.
Každopádně je nutné komplexní UI nikdy nedávat konkrétní cíle. Pokud třeba robot pochopí, že Honzův cíl je být šťastný a Honza mu řekne: „Když se usmívám, znamená to, že jsem šťastný“, zamění robot Honzův úsměv za indikátor jeho štěstí a tedy i za svůj cíl. Potom mu stačí Honzu fyzicky donutit, aby se usmíval, a nemusí ho již vůbec brát v potaz, protože splnil svůj cíl a „učinil Honzu šťastným“. Což samozřejmě nechceme. Komplexní UI si také uvědomí, že k tomu, aby mohla splnit svůj úkol je třeba, aby ona sama existovala. O to víc je důležité, abychom si dali velkou práci s přípravou na její vznik a ujistili se, že jsme schopni ji vytvořit takovou, aby konala ve prospěch lidí. Nick Bostrom v úvodu své knihy Superinteligence3 popisuje hejno vrabců, kteří se pošetile rozhodnou, že si vychovají sovu, aby je přes noc hlídala před predátory. Většina je z nápadu nadšená a hned se rozletí hledat soví vejce aniž by věděli cokoliv o tom, jak ochočit nebo vychovat sovu. Touto nedokončenou bajkou se odkazuje na lidstvo, které se o překot žene do nové éry s umělou inteligencí a nepřemýšlí už tolik nad tím, jak se zařídí, aby se nevymkla naší kontrole. Naštěstí zatím existují jen specializované inteligence, které eventuálně spojujeme do inteligenčních infrastruktur a u nichž vždy víme, co je cíl jednotlivých částí této jednotky a co tedy bude cílem celého souboru. Je pravda, že inteligenční struktury by mohly mít námi nechtěné následky, ale stejně jako u matematických operací je vždy možné se podívat na jejich dílčí části a zjistit, kvůli čemu reagovaly tak, jak reagovaly.
Dost bylo strašení. Řekněme, že jsme nějakým způsobem vytvořili bezpečné stroje s UI, které jsou schopny nahradit některé profese a podnikatelé si je chtějí koupit. Stejně jako během industriální revoluce, majitelé firem jednorázově nakoupí roboty, které pro ně budou bezplatně vykonávat práci, za kterou by kdysi museli platit několika zaměstnancům a jediné jejich výdaje budou směřovat na údržbu těchto robotů. To zas jen podpoří propast mezi nejbohatšími a nejchudšími. Tento systém je sice dlouhodobě zaběhlý, ale to neznamená, že je správný. Peter Frase představil 4 extrémní scénáře světa, ve kterém pro nás budou pracovat roboti v závislosti na tom, jak se vyrovnáme s klimatickou změnou a zda bude bohatství rozděleno mezi všechny. Když necháme klimatickou změnu stranou, je celkem jasné, že pokud bude svět dále rozdělen na bohaté a chudé, budou mít ke všem výhodám poskytovaným UI přístup jen bohatí, a na chudé zbudou vždy jen druhotné vymoženosti. Nedá se říci, že by to pro chudé nutně muselo znamenat špatný život, je dost možné že stroje budou pracovat i za ně. Každopádně je špatné, že již teď docela velké rozdíly v platech se spíš více prohloubí. Úplně nejhorší situace by podle tohoto autora byla v tzv. exterminismus, ve kterém by si bohatí mezi sebou rozdělili klimatickou změnou omezený počet zdrojů a chudé by s největší pravděpodobností nechali do určité míry vymřít. Naopak, pokud by se bohatství rozdělilo mezi všechny, nikdo by nemusel pracovat, což by radikálně změnilo lidský život jako takový.4
Nechme teď tuto teorii stranou. Mnoho lidí se obává, že stroje lidem „ukradnou“ práci. Do určité míry asi mají pravdu. Stejně tomu bylo při industriální revoluci, kdy pracovníky v manufakturách nahrazovaly stroje a pásová výroba. I nyní vznikne mnoho nových pracovních pozic, které si zatím ještě ani neumíme představit. Je pravda, že mnoho lidí bude mít problém měnit svou kvalifikaci, ale naštěstí tato změna bude pozvolná a lidé si na ni budou mít příležitost pomalu zvykat, takže z ní nebudou mít žádný šok.
Zaměřovali jsme se zatím na lidskou společnost, ale co roboti? Již teď se stává, že někteří z nás mají silný vztah k robotům a jsou pravděpodobně připraveni bojovat i za jejich práva. Je to běžnější spíš v Asii, kde se o čím dál tím početnější stárnoucí populaci nemá kdo starat, a tak vyvíjejí různé typy robotů, kteří lidem dělají společnost. Mezi nimi jsou i chatboti, kteří jsou do určité míry schopni konverzovat, což je lidem příjemné a často je po určitém čase dokonce začnou považovat za své kamarády. Zní to jako pošetilost, ale stejně jako Helena z Čapkovy hry RUR5 jsou mnozí jistě připraveni bojovat za práva robotů. Jeden Číňan si dokonce vzal za ženu robotku, kterou si předtím sestrojil. Již teď se rozvíjí trh se sexuálními roboty a jen 40% Britů nepovažuje sex s robotem za podvádění partnera.6 I pro mnoho postižených lidí toužících po pocitu blízkosti je robot praktičtější a méně náročnější volba než shánění lidského partnera. Problém nastane, pokud by se roboti až příliš rozšířili, a vztahy s nimi by byly pro širokou populaci snadnější a příjemnější než vztahy s ostatními lidmi. Roboti se s vámi nehádají, udělají prostě to, co chcete. A pokud by někomu vadila přílišná pasivita, jistě by se daly naprogramovat i občasné menší či větší konflikty.
Jedno je ale jisté, roboti nemají vědomí a proto nejsou schopni pocitů, i když … neumíme úplně popsat, co přesně je vědomí. Vědomý prožitek je velice individuální věc a vlastně ani nemáme jistotu, že i všichni ostatní lidé mají vědomí. Klidně by mohli být tzv. zombie - lidé bez vědomého prožitku, kteří se jen chovají a tváří jako kdyby ho měli, ale reálně nic necítí. Toto svým způsobem navazuje na argument čínského pokoje. Argument čínského pokoje uvažuje, že by mohl existovat stroj, který by inteligentní chování uměl simulovat jako někým připravenou sadu reakcí na všechny možné otázky, aniž by nad čímkoliv sám „přemýšlel“. Ten je do určité míry protikladem Turingova testu, který říká, že za inteligentní můžeme prohlásit ten stroj, jehož lingvistický výstup nerozeznáme od lingvistického výstupu člověka. Argument čínského pokoje bychom ale stejným způsobem mohli do určité míry použít i na ostatní lidi, protože máme přístup jen ke svému vědomí a nemáme žádnou záruku existence vědomí těch ostatních.
Vraťme se tedy do přítomnosti. Čím dál tím více se ve svém každodenním životě setkáváme s UI, která nějakým způsobem ovlivňuje naše rozhodnutí. Smartphony jsou plné aplikací využívajících UI. Nejde jen o asistenty typu Siri, kteří za nás vyhledávají informace a snaží se přitom co nejlépe napodobit lidskou komunikaci, ale také filtry fotoaparátů, které už umí vyhledávat obličeje a různě upravovat realitu, aby se nám zalíbila. UI je také k nalezení ve všech aplikacích poskytujících hudbu, když nám nabízí nové písničky podle toho, jaké nejvíce posloucháme. Systém odhadování, co se nám bude líbit v závislosti na našich již známých zájmech, je používán všude, kde nám UI může nabízet věci, které by se nám mohly líbit. Mimo jiné i na Netflixu a ve všech online reklamách. To může být výhoda, jelikož se k nám dostávají jen relevantní reklamy na produkty, které nás zajímají. Na druhou stranu to ukazuje, kolik toho o nás firmy vědí, což je dost znepokojující. Obzvlášť vzhledem k tomu, že nemají problém tyto informace použít proti nám, pokud jim to nějakým způsobem přinese zisk. I klasické algoritmy zabudované v sociálních sítích mohou modifikovat naše chování. Starají se o to, které příspěvky uvidíme první a které se nám zobrazí tak daleko, že se k nim třeba ani nedostaneme a tím vlastně rozhodují o tom, jaký zážitek na sociálních sítí budeme mít. Sice to samo o sobě nezní až tolik děsivě, ale když si uvědomíme, že průměrný člověk na sociálních médiích stráví dvě hodiny denně,7 a přitom je ovlivňovaný pořád stejnými korporacemi, hned má člověk tendenci být o něco opatrnější.
V oblasti etiky UI jsou naštěstí i o něco méně fatální kapitoly. Mezi ně bych řadila například i tzv. rasismus UI. Když se chatboti učí sociální interakci za pomoci sociálních médií plných vášnivých a jen málokdy slušných hádek, které jsou přítomny na většině diskuzních fór na internetu, není až tolik překvapivé, že se odtamtud tento styl komunikace naučí. Podle mě to však není problém způsobený UI, ale pouze ukazatel rasismu, který je stále přítomný v naší společnosti, přestože se ho snažíme zbavit. Problém potom je, když má UI na takových rasistických podkladech posuzovat lidi. Při jakýchkoli soudech by měl člověk být posuzován jako jednotlivec podle svých činů a ne podle činů ostatních příslušníků jeho skupiny. Naneštěstí toto by v praxi marketingovým společnostem nevynášelo tolik peněz, takže jejich softwary prostě nenapravíme. V každém případě by však UI, které budou radit u soudu neměly mít přístup k informacím o vzhledu a socioekonomické situaci obžalovaného.
V tomto článku jsme se na umělou inteligenci dívali snad ze všech možných i nemožných úhlů z pohledu etiky. I přesto je kolem UI ještě mnoho dalších problematik, o kterých jsme nestihli nezmínili. Jako třeba její použití ve válce, nebo jestli se kvůli ní z nás všech stanou lenoši. Co byste si z něj měli zapamatovat, je hlavně to, že pokrok je sice dobrá věc, ale vždy s sebou nese i nějaká svá úskalí, na která musíme být připraveni. Jestli se někdy podaří vytvořit umělou inteligenci ať už stejně chytrou nebo ještě chytřejší než člověk, bude to velký úspěch nebo průšvih. Proto teď musíme udělat všechno pro to, aby se to povedlo co nejlépe nebo vůbec.
Reference:
¹ ASIMOV, Isaac. I, robot. New York: Bantam Books, 2008. Robot series. ISBN 978-0-553-38256-3.
² CREW, Bec. Driverless Cars Could Reduce Traffic Fatalities by Up to 90%, Says Report [online]. 2015 [cit. 2019-05-27]. Dostupné z: https://www.sciencealert.com/driverless-cars-could-reduce-traffic-fatalities-by-up-to-90-says-report
³ BOSTROM, Nick. Superinteligence: až budou stroje chytřejší než lidé. V českém jazyce vydání druhé. Praha: Prostor, 2018. Globus (Prostor). ISBN 978-80-7260-389-3.
⁴ FRASE, Peter. Four futures: visions of the world after capitalism. London: Verso, 2016. ISBN 978-178-1688-137.
⁵ ČAPEK, Karel. R.U.R. V Praze: Fortuna Libri, 2018. ISBN 978-80-7546-163-6.
⁶ GRIFFITHS, Josie. Four in ten Brits don’t consider sex with a robot cheating… so where do YOU stand?[online]. 2017 [cit. 2019-05-27]. Dostupné z: https://www.thesun.co.uk/living/4311136/brits-dont-consider-sex-with-robot-cheating/
⁷ ASANO, Evan. How Much Time Do People Spend on Social Media? [online]. 2017 [cit. 2019-05-27]. Dostupné z: https://www.socialmediatoday.com/marketing/how-much-time-do-people-spend-social-media-infographic
Vyhlášení vítězky
Soutěž o nejlepší esej o etice a umělé inteligenci
Centrum Karla Čapka pro studium hodnot ve vědě a technice oznamuje vítěze soutěže pro studenty středních škol o nejlepší esej na téma „Etika umělé inteligence“. Na prvním místě se umístila studentka Gymnázia Nad Alejí Kamila Houšková se svou prací s názvem „Esej o vztahu hodnot, etiky a umělé inteligence“. Vítězka obdrží 10.000 korun a její esej bude publikována na webu www.cevast.org.
Sex s roboty: nové možnosti sexuálních zkušeností, nebo morální problém?
David Černý
Sex a roboti; tato dvě slova vyvolávají pocit bulvárního námětu, kterému by se seriózní autoři měli raději zdálky vyhnout. Jenže věc není tak jednoduchá a ani skandální, jak by mohl nadpis naznačovat. Robotika se velmi rychle vyvíjí a roboti hrají a budou hrát stále důležitější roli ve všech sférách naší společnosti: budou nám dělat společnost (společenští roboti), ošetřovat nás (ošetřovatelští roboti), diagnostikovat, operovat a léčit (lékařští roboti), zachraňovat v případě požárů, zemětřesení a dalších možných katastrof (záchranářští roboti), budou nás vozit po sinicích (autonomní vozidla), převezmou velkou část našich pracovních pozic, stanou se nepostradatelnými pomocníky v domácnosti, budou za nás prozkoumávat vesmír či nás chránit před útoky nepřátel. Proč by tedy nemohli zaujmout i místo našich druhů a milenců?
Známý odborník na umělou inteligenci David Levy ve své knize z roku 2007 Láska a sex s roboty předpovídá, že do roku 2050 se roboti díky svým vlastnostem stanou pro nás lidi natolik atraktivními, že se do nich budeme zamilovávat, budeme s nimi žít, budeme s nimi uzavírat sňatky a, samozřejmě, budeme s nimi mít sex. To samozřejmě vyvolává celou řadu etických a jiných otázek, např. Co to vlastně znamená mít s někým sex? Jaký je smysl sexu a za jakých podmínek je sex morálně přípustný? A pokud budou lidé s roboty navazovat intimní vztahy, jaké by mohly být dopady pro složité a křehké předivo vztahů utvářející naši společnost?
Sexuální robot? Co to je?
Jak ukazují dějiny lidské sexuality, využívání různých pomůcek či náhražek našich pohlavních orgánů není ničím novým ani neobvyklým. Např. v roce 2005 oznámili archeologové provádějící výzkum jeskyně Hohle Fels ve Švábské Albě (pohoří na jihu spolkové země Bádensko-Würrtenbersko) nález zhruba dvacet centimetrů dlouhého objektu, který byl díky svému odhadovanému stáří zhruba 28.000 let označený za nejstarší dildo na světě. Již v druhé polovině 19. století se v Paříži vyráběly a za asi tři tisíce franků prodávaly velmi dobré napodobeniny pohlavních orgánů či celých lidských těl, které byly tak sofistikované, že napodobovaly dokonce i sekreci žláz a ejakulaci spermatu. Nikoho z nás proto asi nepřekvapí, že se výsledků rozvoje na poli moderní robotiky chopily také společnosti, kteří se zaměřují na vývoj a výrobu sexuálních robotů. Co to však jsou sexuální roboti?
Sexuální roboti jsou v první řadě roboti. Jak však říká Illah Reza Nourbakhsh z Carnegie College, nikdy se neptejte robotika, co to robot vlastně je; definic je k dispozici celá řada a neexistuje žádná shoda na tom, která z nich je správná. Často se však setkáváme s návrhem George Bekeyho, který v roce 2005 definoval robota jako stroj, který vnímá, myslí a jedná – pomocí svých senzorů vnímá své okolí, dokáže zpracovat informace pocházející ze senzorů, využívat je v nějakých byť i třeba rudimentálních kognitivních procesech a nakonec jednat, i kdyby tímto jednáním měl být třeba jen pohyb po místnosti a vysávání prachu. Tato definice sice není všeobecně přijímaná (někdo považuje za roboty i softwarové agenty, jiní zase požadují, aby robot byl také alespoň v nějaké míře autonomní a schopný pohybu v prostoru), blíží se k ní však tak blízko, že se někdy hovoří o sense-think-act paradigmatu operacionální definice robotů.
Sexuální robot je tedy robot, umělá bytost vytvořená člověkem za poměrně specifickým účelem, který určuje návrh, design a využívání těchto mechanických bytostí. Nejčastěji se hovoří o třech podmínkách, jež musí sexuální roboti splňovat: i) musí se podobat lidem (mužům i ženám), ii) musí mít realistické lidské pohyby, iii) musí disponovat nějakou základní umělou inteligencí. Neplatí však, že by každý sexuální robot musel splňovat první podmínku, mohou získávat podobu zvířat nebo i tvorů uzavřených v hranicích lidské fantazie, nejčastěji se však setkáváme a budeme setkávat se sexboty podobným lidem, zvláště lidem velmi krásným a bohatě obdařeným sexuálně přitažlivými fyzickými vlastnostmi. Existující sexboti – např. společnosti Abbys Creations vyrábějící velmi realistické sexboty RealDoll či společnosti TrueCompanion produkující Roxxxy – ženské sexboty – a Rocky – mužské sexboty – sice disponují určitou umělou inteligencí (např. podle stránek TrueCompany mohou vést základní konverzaci, vyjadřovat svou lásku či cítit lidské doteky), její možnosti jsou zatím velmi omezené. I navzdory svým omezením však usnadňuje zaujetí vůči těmto robotům toho, čemu americký filosof Daniel Dennett říkal intencionální postoj: přisuzování lidských mentálních vlastností a postojů, např. plánů, cílů, pocitů či úmyslů. Zakladatel společnosti Abbys Creations MattMcCulen v roce 2015 v jednom rozhovoru prohlásil, že lidé nebudou mít s jeho produkty pouze sex, budou se do nich zamilovávat, bude jim na nich záležet, budou je zkrátka vnímat jako partnery.
Co je to vlastně sex, natož s robotem?
Sexuální roboti jsou zajímavou ilustrací faktu, že již samotný vývoj a následná existence nějaké formy umělé inteligence vyvolávají důležité etické otázky. Např. v případě vojenských robotů se můžeme oprávněně ptát, zda je morální takové stroje vyvíjet a vyrábět, jejich existence je tedy morálně sporná. Současná diskuse na poli etiky umělé inteligence a roboetiky se nejčastěji zaměřuje na problém regulace chování těchto lidských výtvorů, u některých robotů je však otázka morálnosti jejich účelu neméně důležitá, což platí zvláště, byť ne výlučně, v případě sexbotů. Uvidíme, že na ně zaměřená etická diskuse se nevěnuje ani tak pravidlům jejich chování, aby toto chování bylo eticky korektní a lidem prospěšné, ale spíše kladům a záporům jejich spolu-existence ve složitém předivu lidských společenských vztahů.
Sex můžeme mít s leckým a lecčím, kdybychom ho však chápali takto široce, nevzbuzoval by sex s roboty specifické etické otázky. Vyvolává je snad sex s vibrátorem? V tomto triviálním smyslu samozřejmě sex s roboty mít můžeme, stejně jako mohly mít ženy sex se sochami v rámci religiózního obřadu obětování svého panenství. Nás zde ale zajímá jiný, poněkud bohatší a úžeji vymezené chápání fráze „mít se s“. Když se nad tím totiž zamyslíme, ve skutečnosti s vibrátorem sex mít nemůžeme; jistě, můžeme stimulovat své sexuální orgány a dosáhnout orgasmu, jenže pokud bychom každou takovou aktivitu chápali jako interpretaci výrazu „mít sex s“, potom by masturbace znamenala, že máme homosexuální a incestní sex sami se sebou.
Mark Migotti a Nicole Wyatt proto tvrdí, že idea sexu zahrnuje sdílené aktérství: já mám sex s tebou, pouze pokud ty máš sex se mnou. Sex představuje aktivitu, která nás sjednocuje ve společném aktérství, v němž se přijímáme jako partneři a vzájemně se obohacujeme dobrem, jenž sexuální aktivita přináší (intimita, vyjádření lásky, sdílení rozkoše apod.). S vibrátorem sex mít nemůžeme, protože není naším partnerem a nemůže s námi tuto aktivitu sdílet. U sexuálních robotů tomu tak již dnes být nemusí (navzdor jejich zatím nepříliš rozvinuté umělé inteligenci jim zřejmě budeme přisuzovat lidské charakteristiky), a s rozvojem jejich umělé inteligence je nebudeme více a více považovat za pouhé nástroje, s nimiž vlastně onanujeme, ale za partnery, s nimiž se sjednocujeme ve společném a sdíleném aktu lásky – s nimiž máme sex.
Je zřejmé, že toto vymezení významu fráze „sex s roboty“ eticky relevantní je, stačí si třeba uvědomit, že zatímco používání sexuálních pomůcek nechápeme jako nevěru, sex s roboty se může ocitnout na seznamu věcí, které jako nevěru chápat budeme. Stejně tak je zřejmé, že budeme-li sexuální roboty chápat jako partnery, může mít tento vztah vážné dopady na vnímání sexu obecně, na chápání mezilidských intimních vztahů či roli rodiny v moderní společnosti. Nehodnotíme zde tedy pravidla chování sexbotů; jistě, jsou důležitá, ale pouze od okamžiku, kdy si ujasníme zásadnější etickou otázku: je morálně přípustné, abychom vyvíjeli, vyráběli a využívali sexuální roboty?
Sex s roboty? Proč ne?
Jakým způsobem bychom se mohli v morální rovině pokusit ospravedlnit sex s roboty? Lze se nepochybně odvolat na známu Millův princip újmy, hrající velmi důležitou roli v moderní pluralitní liberální společnosti: pokud mé jednání nepůsobí někomu újmu, můžu si dělat v podstatě co chci, a stát – včetně jeho obyvatel – by to měl respektovat (i kdyby se to někomu nelíbilo). V tomto smyslu rozhodovaly některé americké soudy o homosexuálním intimním životě; jednoduše řečeno, nikomu neubližuje a neměli bychom strkat nos do toho, co lidé ve svých ložnicích dělají. Tato argumentace není však dostatečně silná. Nesnaží se totiž prokázat, že sex s roboty je morálně přípustný či správný, pouze poukazuje na to, že když svým jednáním nikomu neubližujeme, stát by ho neměl regulovat.
Sex se sexboty bude velmi realistický a stane se tak zdrojem mnoha benefitů, jež nám sexuální život přináší. D. G. Blanchflower a A. J. Oswald ve své studii Money, Sex and Happiess zjistili, že pokud zvýšíme frekvenci sexuálních styků z jednou měsíčně na alespoň jednou týdně, budeme se cítit šťastnější, jako kdyby nám zvýšili roční plat o 50.000 dolarů. Pravidelný sex je navíc spojený s udržováním tělesné váhy či jejím snížením, redukcí stresu, snížením tlaku a podporou srdeční činnosti, u mužů se méně často rozvine rakovina prostaty a lépe také spíme. Sex s roboty prostě bude příjemný a prospěšný našemu zdraví; a to je nepochybně důležitý faktor ovlivňující jeho morální přípustnost.
Někteří autoři – např. známý jihoafrický filosof David Benatar – se domnívají, že morálně přípustný sex je pouze takový, který je projevem skutečné lásky. Není úplně snadné této tezi porozumět. Musí být každý pohlavní styk projevem lásky? Taková podmínka je, zdá se mi, příliš silná, vždyť i dva milující se lidé mohou mít někdy sex, který je projevem živočišné vášně a touhy. Možná Benatar myslí, že morálně přípustný sex je pouze takový, který probíhá v rámci páru, jenž se miluje; nemusí tedy, tady a teď, být projevem lásky, musí však být součástí láskyplného vztahu. I kdyby měl Benatar pravdu, vylučoval by jeho argument pouze určité formy sexu s roboty, právě ty, které spíše odpovídají sexu s nějakou sexuální pomůckou. Pokud však budeme robotům přisuzovat lidské vlastnosti – a s rozvojem jejich umělé inteligence to bude stále korektnější – potom se do nich zamilovávat budeme, budeme je chápat jako naše skutečné partnery, kteří nám budou lásku – potvrdí-li se Levyho předpověď – oplácet.
Sex s roboty však můžeme morálně ospravedlnit i jinak. Světová zdravotnická organizace nedávno přijala Deklaraci sexuálních práv, kterou sepsali účastníci 13. Světového sexuologického kongresu v roce 1997. Tato deklarace považuje sexuální práva za základní lidská práva založená na svobodě, důstojnosti a rovnosti všech lidí. Nicméně – a to je důležité – tato práva nejsou dostupná všem, což by mohly změnit právě sexuální roboti.
Uvažme např. situaci lidí, kteří jsou příliš nesmělí, nebo mají komplexy z nedostatku své sexuální zkušenosti, sex v jejich životě proto chybí. Sexuální robot by mohl chybějí dobro sexu a jeho benefitů nahradit, kromě toho by také mohl zvýšit sebevědomí a sexuální dovednosti svého partnera a připravit ho tak na partnerský život s reálným mužem/ženou. Také lidé trpící nějakým postižením, lidé nepovažovaní většinovou společností za dostatečně atraktivní či starší lidé, které smrt připravila o partnera a oni nemají chuť ani sílu hledat si nového, by mohli mít velký prospěch z navázání sexuálního vztahu se sexuálním robotem. Poněkud kontroverznější je situace tzv. sexuálních deviantů. Musíme si však uvědomit, že za svou deviaci nemohou, navíc se vůči nim matka příroda zachovala nesmírně krutě a odsoudila je k celoživotnímu celibátů. Speciální sexboti – v dětské, zvířecí či jiné podobě – by mohly představovat řešení jejich tíživé situace.
Sexuální roboti by však mohli být prospěšní i pro partnery, kteří žijí v jinak spokojeném vztahu, mají však velmi odlišné požadavky na frekvenci milostného aktu. Celá řada studií ukazuje, že tato různá „chuť na sex“ je jedním z nejčastějších důvodů napětí v partnerském vztahu, může vést k nevěře či rozpadu celého vztahu, v každém případě je však zdrojem stresu a snížení kvality lidského života.
Zde se však na chvilku zastavme, abychom si blíže ukázali komplexnost problematiky etického hodnocení sexbotů. Mnozí autoři – např. Neil McArthur – předpokládají, že pokud má jeden z partnerů větší potřebu sexuálního styku, může využívat sexuálního robota. Problém je samozřejmě v tom, že sex s robotem – jak jsme ho definovali – není to samé, jako třeba sex s vibrátorem. Bude druhý partner, s nižší potřebou sexu, chápat jednání svého druha či družky jako nevěru? A pokud ano, nepřinese sex s robotem nakonec více strasti než slasti? Abychom na tuto otázku mohli odpovědět, nestačí jen přemýšlet a zvažovat různé scénáře, musíme mít k dispozici také nějaká empirická data. V rámci našeho Centra Karla Čapka pro studium hodnot ve vědě a technice proto spouštíme projekt, v jehož rámci bychom rádi potvrdili či vyvrátili naši pracovní hypotézu: čím více budou lidé robotům přisuzovat lidské charakteristiky, tím více budou považovat sex s robotem za nevěru. Možnosti využití sexbotů by se tím zřejmě snížily, stále by ale existovalo nezanedbatelně velké množství lidí, jimž by přinášeli potěšení, slast, pocit vzájemnosti a intimity, a byli by tak pro ně důležitým dobrem obohacujícím jejich život.
Sex s roboty? Opatrné ano
Sex s roboty má samozřejmě i své odpůrce, kterým jsem se v tomto článku nemohl věnovat. Někdo může požadovat, aby sex byl pouze a jedině vyjádřením skutečné lásky, jiní jsou zase přesvědčení, že sex je morálně přípustný pouze v manželství, přičemž si manželství představují jako sjednocení muže a ženy spojené plodivým aktem (roboti zatím děti mít nemohou, ale kdo ví, co nám buducnost přinese), další si zase myslí, že morálně přípustné nejsou ani sexuální pomůcky, natož pak roboti, další autoři se zaměřují na možné negativní důsledky sexu s mechanickými milenci. Tyto námitky samozřejmě musíme brát vážně, myslím si ale, že když srovnáváme benefity spojené se sexem s roboty s možnými negativními důsledky, benefity nakonec přeci jen převáží. Takže: sex s roboty ano, ale pokud by se např. ukázalo, že rozbíjí mezilidské vztahy nebo posiluje sexismus a stereotypy vůči ženám či mužům, budeme muset toto opatrné ano znovu promýšlet a v případě nutnosti revidovat.
Cookies