O vztahu hodnot, etiky a umělé inteligence
Vítězná esej Kamily Houškové
Často se zdá, že vývoj umělé inteligence (UI) je pouze v rukou techniků a programátorů. Poslední dobou je ale čím dál víc očividné, že do jejího vývoje bude potřeba zapojit i ostatní vědní a humanitní obory. Neurologií se vědci inspirovali při vývoji neuronových sítí. Ekonomie zkoumá, jaké dopady by měla robotizace a automatizace na trh práce. Nejvíc je ale s otázkou umělé inteligence spojena filosofie, konkrétně etika. Ta řeší, za jakých podmínek je správné algoritmy používat, a kdy je lepší se obejít bez nich.
Podle jedné definice se obor umělé inteligence zabývá tvorbou strojů řešících úlohy tak složité, že by jejich řešení vyžadovalo lidskou inteligenci. Složité úlohy mohou být dvojího typu. Nekomplexní UI řeší problémy, které budou mít stejný výsledek, ať už se objeví kdykoliv a kdekoliv. To, že je UI nekomplexní neznamená, že úkol, který řeší je jednodušší než ten, který řeší ta komplexní. Pod nekomplexní UI totiž patří i velmi složité matematické operace, které by mnohdy nebyli schopni vyřešit ani lidé. Naopak to, že je UI komplexní neznamená, že se zabývá složitějšími úkoly, ale jen to, že se správný výsledek bude měnit v závislosti na okolnostech. Malá holčička má za úkol jít do obchodu a koupit rohlíky. Přijde do obchodu a zjistí, že rohlíky došly. Ví, že doma mají málo pečiva, obchod brzy zavírá a zítra je neděle, takže obchod bude zavřený. I kdyby robot nebo jakýkoli jiný algoritmus měli všechny tyto informace, pokud příkaz zněl “Kup rohlíky”, jejich systém selže a udělají jen to, co jejich programátor nastavil, že by měli udělat. Ten ale nemůže robota připravit na úplně všechny situace, které by ho kdy mohly potkat. Jelikož neví, na co jiného tato konkrétní rodina zrovna bude mít chuť, řekne prostě robotovi, aby se vrátil domů a zeptal, co má dělat. V tu chvíli ale už může být pozdě, protože obchod přece právě zavírá. Na rozdíl od něj holčička ví, že mají všichni kromě maminky rádi koblihy, a proto koupi jednu bagetu a tři koblihy. Zatím se tuto komplexní UI vytvořit nepodařilo. To není velký problém, znamená to ale, že na mnoho úkolů se UI zatím nedá plně využít.
Různým typům UI bude potřeba sdělovat naše cíle různými způsoby. Komplexní UI bude potřebovat znát celkový kontext, ve kterém se rozhodnutí dělá, zatímco té nekomplexní bude stačit znát zadání. V obou případech je stanovení cíle velmi důležitý krok. Během vývoje i využívání UI na něj musíme myslet, protože pokud bychom ho zanedbali, mohlo by se stát, že stroje nebudou dělat to, co po nich chceme. Někdy si chyby včas všimneme a stihneme stroj zastavit dřív, než problém nastane. Ne vždy je ale čas zasáhnout a ne vždy na stroje někdo dohlíží. Proto je k tomu, aby nám byly prospěšné, potřeba, aby dělaly to, co po nich chceme.
V případě nekomplexní UI je potřeba dávat jasné rozkazy. Pokud naše rozkazy nebudou dostatečně promyšlené, může se stát, že si je vysvětlí špatně. Tak tomu bylo například v příběhu robota Rychlíka z Asimovovy knihy Já, robot.1 V ní se předpokládá, že všichni roboti se řídí třemi zákony robotiky:
- Robot nesmí ublížit člověku nebo svou nečinností dopustit, aby bylo člověku ublíženo.
- Robot musí uposlechnout příkazů člověka, kromě případů, kdy jsou tyto příkazy v rozporu s prvním zákonem.
- Robot musí chránit sám sebe před poškozením, kromě případů, kdy je tato ochrana v rozporu s prvním, nebo druhým zákonem.
Rychlík měl za úkol získat selen z nejbližšího selenového jezírka. K němu se ale nemůže přiblížit, protože by se tím vystavil nebezpečí, čímž by porušil 3. zákon. Kvůli 2. zákonu ale musí pokračovat v plnění úkolu, přestože se ukazuje, že kvůli 3. zákonu je tento úkol nesplnitelný. Kdyby byl Donovan při zadávání úkolu opatrnější a nenakázal Rychlíkovi jít k nejbližšímu selenovému jezírku, mohl by místo toho jít k vzdálenějšímu ale bezpečnějšímu. Takhle musí běhat kolem toho nejbližšího, přestože je pro něj nemožné se k němu přiblížit a rozkaz vykonat. Každopádně vždy se budou dělat chyby a proto je záhodno do přístroje naprogramovat vzorce chování, které má využít v krizových či nepředvídatelných situacích, podobných jako je tato. Většinou jsou zařízení dlouze testována, aby je programátoři připravili na co největší množství možných situací, které mohou nastat. K tomu, aby to udělali, ale musí vědět, jak přesně chtějí, aby se stroj v oné situaci zachoval. To není vždy úplně jasné, protože neexistuje žádný jeden soubor hodnot řazených podle důležitosti, který by byl společný pro všechny lidi na planetě. Proto je například nemožné jednotně vyřešit morální dilema u autonomních vozů. Každopádně by bylo lepší už tuto debatu ukončit a začít první samo-řízená vozidla prodávat, jelikož podle průzkumů by se tím zmenšil počet dopravních nehod až o 90%.2
Ke komplexním UI bude potřeba přistupovat úplně jinak, protože potřebují znát spíše kontext problému a naší motivaci než úkol sám o sobě. To je obzvláště složité, protože jsme ještě nikdy nepotřebovali někoho cíleně učit hodnotové orientaci. Lidé ji samovolně získají socializací a nikoho jiného jsme ji učit nepotřebovali. Stálo by za to vytvořit obor psychologie propojený s informatikou, který by měl za úkol zjistit, co reálně chceme a robotům to pak sdělit, ale to bychom je nejdřív museli naučit abstraktnímu myšlení, aby si pojmy jako je právě štěstí dokázali vysvětlit. U komplexní UI se totiž předpokládá, že úkol provede na základě pochopení našich motivací spíš než na základě pečlivého následování protokolu. Je tedy potřeba, aby správně poznala naše motivace, přijala je za své a chovala se podle nich. Příkladem toho, co se stane, pokud robot nepochopí komplexnost našich motivací, je Asimův příběh robota Herbie. Díky své schopnosti číst myšlenky „ví“, co lidé chtějí, a jako správný robot dělá vše pro to, aby byli spokojení. Když zjistí, že některé informace mohou lidi citově zranit, začne všem říkat jen to, co chtějí slyšet. Nechápe ale, že lidé by potřebovali, aby jim říkal pravdu a podle prvního zákona robotiky dělá to, o čem si myslí, že jim ublíží nejméně. Kvůli tomu se ale stává nepoužitelným. Jeden ze způsobů, jak zjistit motivace člověka je tzv. inverse reinforcement learning popsaný v roce 2000 Andrewem Ngemem a Stuartem Russellem. Stroj pozoruje, co člověk dělá, a z toho vyvozuje, jaké k tomu má důvody. O něco pokročilejší, ale potenciálně méně přesný, je cooperative inverse reinforcement learning, kde člověk může mluvit se strojem a své motivace mu vysvětlovat. To sice ušetří stroji čas, protože pochopí hlavní motivaci člověka rychleji, ale přináší to s sebou riziko přílišné generalizace, protože člověk všechny své dílčí motivace nevysvětlí a robot si jich za použití této metody nevšimne spíše než za pomoci té první.
Každopádně je nutné komplexní UI nikdy nedávat konkrétní cíle. Pokud třeba robot pochopí, že Honzův cíl je být šťastný a Honza mu řekne: „Když se usmívám, znamená to, že jsem šťastný“, zamění robot Honzův úsměv za indikátor jeho štěstí a tedy i za svůj cíl. Potom mu stačí Honzu fyzicky donutit, aby se usmíval, a nemusí ho již vůbec brát v potaz, protože splnil svůj cíl a „učinil Honzu šťastným“. Což samozřejmě nechceme. Komplexní UI si také uvědomí, že k tomu, aby mohla splnit svůj úkol je třeba, aby ona sama existovala. O to víc je důležité, abychom si dali velkou práci s přípravou na její vznik a ujistili se, že jsme schopni ji vytvořit takovou, aby konala ve prospěch lidí. Nick Bostrom v úvodu své knihy Superinteligence3 popisuje hejno vrabců, kteří se pošetile rozhodnou, že si vychovají sovu, aby je přes noc hlídala před predátory. Většina je z nápadu nadšená a hned se rozletí hledat soví vejce aniž by věděli cokoliv o tom, jak ochočit nebo vychovat sovu. Touto nedokončenou bajkou se odkazuje na lidstvo, které se o překot žene do nové éry s umělou inteligencí a nepřemýšlí už tolik nad tím, jak se zařídí, aby se nevymkla naší kontrole. Naštěstí zatím existují jen specializované inteligence, které eventuálně spojujeme do inteligenčních infrastruktur a u nichž vždy víme, co je cíl jednotlivých částí této jednotky a co tedy bude cílem celého souboru. Je pravda, že inteligenční struktury by mohly mít námi nechtěné následky, ale stejně jako u matematických operací je vždy možné se podívat na jejich dílčí části a zjistit, kvůli čemu reagovaly tak, jak reagovaly.
Dost bylo strašení. Řekněme, že jsme nějakým způsobem vytvořili bezpečné stroje s UI, které jsou schopny nahradit některé profese a podnikatelé si je chtějí koupit. Stejně jako během industriální revoluce, majitelé firem jednorázově nakoupí roboty, které pro ně budou bezplatně vykonávat práci, za kterou by kdysi museli platit několika zaměstnancům a jediné jejich výdaje budou směřovat na údržbu těchto robotů. To zas jen podpoří propast mezi nejbohatšími a nejchudšími. Tento systém je sice dlouhodobě zaběhlý, ale to neznamená, že je správný. Peter Frase představil 4 extrémní scénáře světa, ve kterém pro nás budou pracovat roboti v závislosti na tom, jak se vyrovnáme s klimatickou změnou a zda bude bohatství rozděleno mezi všechny. Když necháme klimatickou změnu stranou, je celkem jasné, že pokud bude svět dále rozdělen na bohaté a chudé, budou mít ke všem výhodám poskytovaným UI přístup jen bohatí, a na chudé zbudou vždy jen druhotné vymoženosti. Nedá se říci, že by to pro chudé nutně muselo znamenat špatný život, je dost možné že stroje budou pracovat i za ně. Každopádně je špatné, že již teď docela velké rozdíly v platech se spíš více prohloubí. Úplně nejhorší situace by podle tohoto autora byla v tzv. exterminismus, ve kterém by si bohatí mezi sebou rozdělili klimatickou změnou omezený počet zdrojů a chudé by s největší pravděpodobností nechali do určité míry vymřít. Naopak, pokud by se bohatství rozdělilo mezi všechny, nikdo by nemusel pracovat, což by radikálně změnilo lidský život jako takový.4
Nechme teď tuto teorii stranou. Mnoho lidí se obává, že stroje lidem „ukradnou“ práci. Do určité míry asi mají pravdu. Stejně tomu bylo při industriální revoluci, kdy pracovníky v manufakturách nahrazovaly stroje a pásová výroba. I nyní vznikne mnoho nových pracovních pozic, které si zatím ještě ani neumíme představit. Je pravda, že mnoho lidí bude mít problém měnit svou kvalifikaci, ale naštěstí tato změna bude pozvolná a lidé si na ni budou mít příležitost pomalu zvykat, takže z ní nebudou mít žádný šok.
Zaměřovali jsme se zatím na lidskou společnost, ale co roboti? Již teď se stává, že někteří z nás mají silný vztah k robotům a jsou pravděpodobně připraveni bojovat i za jejich práva. Je to běžnější spíš v Asii, kde se o čím dál tím početnější stárnoucí populaci nemá kdo starat, a tak vyvíjejí různé typy robotů, kteří lidem dělají společnost. Mezi nimi jsou i chatboti, kteří jsou do určité míry schopni konverzovat, což je lidem příjemné a často je po určitém čase dokonce začnou považovat za své kamarády. Zní to jako pošetilost, ale stejně jako Helena z Čapkovy hry RUR5 jsou mnozí jistě připraveni bojovat za práva robotů. Jeden Číňan si dokonce vzal za ženu robotku, kterou si předtím sestrojil. Již teď se rozvíjí trh se sexuálními roboty a jen 40% Britů nepovažuje sex s robotem za podvádění partnera.6 I pro mnoho postižených lidí toužících po pocitu blízkosti je robot praktičtější a méně náročnější volba než shánění lidského partnera. Problém nastane, pokud by se roboti až příliš rozšířili, a vztahy s nimi by byly pro širokou populaci snadnější a příjemnější než vztahy s ostatními lidmi. Roboti se s vámi nehádají, udělají prostě to, co chcete. A pokud by někomu vadila přílišná pasivita, jistě by se daly naprogramovat i občasné menší či větší konflikty.
Jedno je ale jisté, roboti nemají vědomí a proto nejsou schopni pocitů, i když … neumíme úplně popsat, co přesně je vědomí. Vědomý prožitek je velice individuální věc a vlastně ani nemáme jistotu, že i všichni ostatní lidé mají vědomí. Klidně by mohli být tzv. zombie - lidé bez vědomého prožitku, kteří se jen chovají a tváří jako kdyby ho měli, ale reálně nic necítí. Toto svým způsobem navazuje na argument čínského pokoje. Argument čínského pokoje uvažuje, že by mohl existovat stroj, který by inteligentní chování uměl simulovat jako někým připravenou sadu reakcí na všechny možné otázky, aniž by nad čímkoliv sám „přemýšlel“. Ten je do určité míry protikladem Turingova testu, který říká, že za inteligentní můžeme prohlásit ten stroj, jehož lingvistický výstup nerozeznáme od lingvistického výstupu člověka. Argument čínského pokoje bychom ale stejným způsobem mohli do určité míry použít i na ostatní lidi, protože máme přístup jen ke svému vědomí a nemáme žádnou záruku existence vědomí těch ostatních.
Vraťme se tedy do přítomnosti. Čím dál tím více se ve svém každodenním životě setkáváme s UI, která nějakým způsobem ovlivňuje naše rozhodnutí. Smartphony jsou plné aplikací využívajících UI. Nejde jen o asistenty typu Siri, kteří za nás vyhledávají informace a snaží se přitom co nejlépe napodobit lidskou komunikaci, ale také filtry fotoaparátů, které už umí vyhledávat obličeje a různě upravovat realitu, aby se nám zalíbila. UI je také k nalezení ve všech aplikacích poskytujících hudbu, když nám nabízí nové písničky podle toho, jaké nejvíce posloucháme. Systém odhadování, co se nám bude líbit v závislosti na našich již známých zájmech, je používán všude, kde nám UI může nabízet věci, které by se nám mohly líbit. Mimo jiné i na Netflixu a ve všech online reklamách. To může být výhoda, jelikož se k nám dostávají jen relevantní reklamy na produkty, které nás zajímají. Na druhou stranu to ukazuje, kolik toho o nás firmy vědí, což je dost znepokojující. Obzvlášť vzhledem k tomu, že nemají problém tyto informace použít proti nám, pokud jim to nějakým způsobem přinese zisk. I klasické algoritmy zabudované v sociálních sítích mohou modifikovat naše chování. Starají se o to, které příspěvky uvidíme první a které se nám zobrazí tak daleko, že se k nim třeba ani nedostaneme a tím vlastně rozhodují o tom, jaký zážitek na sociálních sítí budeme mít. Sice to samo o sobě nezní až tolik děsivě, ale když si uvědomíme, že průměrný člověk na sociálních médiích stráví dvě hodiny denně,7 a přitom je ovlivňovaný pořád stejnými korporacemi, hned má člověk tendenci být o něco opatrnější.
V oblasti etiky UI jsou naštěstí i o něco méně fatální kapitoly. Mezi ně bych řadila například i tzv. rasismus UI. Když se chatboti učí sociální interakci za pomoci sociálních médií plných vášnivých a jen málokdy slušných hádek, které jsou přítomny na většině diskuzních fór na internetu, není až tolik překvapivé, že se odtamtud tento styl komunikace naučí. Podle mě to však není problém způsobený UI, ale pouze ukazatel rasismu, který je stále přítomný v naší společnosti, přestože se ho snažíme zbavit. Problém potom je, když má UI na takových rasistických podkladech posuzovat lidi. Při jakýchkoli soudech by měl člověk být posuzován jako jednotlivec podle svých činů a ne podle činů ostatních příslušníků jeho skupiny. Naneštěstí toto by v praxi marketingovým společnostem nevynášelo tolik peněz, takže jejich softwary prostě nenapravíme. V každém případě by však UI, které budou radit u soudu neměly mít přístup k informacím o vzhledu a socioekonomické situaci obžalovaného.
V tomto článku jsme se na umělou inteligenci dívali snad ze všech možných i nemožných úhlů z pohledu etiky. I přesto je kolem UI ještě mnoho dalších problematik, o kterých jsme nestihli nezmínili. Jako třeba její použití ve válce, nebo jestli se kvůli ní z nás všech stanou lenoši. Co byste si z něj měli zapamatovat, je hlavně to, že pokrok je sice dobrá věc, ale vždy s sebou nese i nějaká svá úskalí, na která musíme být připraveni. Jestli se někdy podaří vytvořit umělou inteligenci ať už stejně chytrou nebo ještě chytřejší než člověk, bude to velký úspěch nebo průšvih. Proto teď musíme udělat všechno pro to, aby se to povedlo co nejlépe nebo vůbec.
Reference:
¹ ASIMOV, Isaac. I, robot. New York: Bantam Books, 2008. Robot series. ISBN 978-0-553-38256-3.
² CREW, Bec. Driverless Cars Could Reduce Traffic Fatalities by Up to 90%, Says Report [online]. 2015 [cit. 2019-05-27]. Dostupné z: https://www.sciencealert.com/driverless-cars-could-reduce-traffic-fatalities-by-up-to-90-says-report
³ BOSTROM, Nick. Superinteligence: až budou stroje chytřejší než lidé. V českém jazyce vydání druhé. Praha: Prostor, 2018. Globus (Prostor). ISBN 978-80-7260-389-3.
⁴ FRASE, Peter. Four futures: visions of the world after capitalism. London: Verso, 2016. ISBN 978-178-1688-137.
⁵ ČAPEK, Karel. R.U.R. V Praze: Fortuna Libri, 2018. ISBN 978-80-7546-163-6.
⁶ GRIFFITHS, Josie. Four in ten Brits don’t consider sex with a robot cheating… so where do YOU stand?[online]. 2017 [cit. 2019-05-27]. Dostupné z: https://www.thesun.co.uk/living/4311136/brits-dont-consider-sex-with-robot-cheating/
⁷ ASANO, Evan. How Much Time Do People Spend on Social Media? [online]. 2017 [cit. 2019-05-27]. Dostupné z: https://www.socialmediatoday.com/marketing/how-much-time-do-people-spend-social-media-infographic
Cookies