Novinky

Létající morální zabijáci
David Černý
Armáda České republiky oznámila, že zřídí novou jednotku bezpilotních prostředků. V plánu je rozšíření počtu a typů dronů, jež má k dispozici: v několika příštích letech by měla získat i bojové drony, jež mohou zasahovat ve válečných konfliktech. Shodou okolností byl v Praze minulý týden na pozvání Centra Karla Čapka pro studium hodnot ve vědě a technice izraelský filosof Daniel Statman, profesor na univerzitě v Haifě. V posledních letech se zabývá teorií spravedlivé války a etickou analýzou využívání moderních technologií v boji s nepřítelem, speciálně právě etice válečných dronů.
Válka je nepochybně děsivá událost. Musíme však být realisté: války se vedly od úsvitu lidských dějin a je krajně nepravděpodobné, že někdy dosáhneme stavu celosvětového míru. I válka však může vzniknout ze spravedlivého důvodu a je možné ji vést eticky správným způsobem. Jednou z důležitých otázek moderní doby je nasazení moderních technologií, třeba právě válečných dronů. A zvláště pak jeho etické hodnocení. Je totiž nepochybné, že moderní válka se stále více posouvá z boje mezi lidmi na bitevním poli k boji mezi lidmi a stroji, v dnešní době stále ještě ovládanými lidmi (zvláště pokud jde o finální příkaz “střílej”). Jedná se - z morálního hlediska - o pokrok, či spíše o nastolení nových podob neférovosti, zvláště v případě asymetrického konfliktu?
Co říká etika války?
Třeba profesor Statman je přesvědčen, že využívání dronů k cílenému útoku na nepřátelskou infrastrukturu a armádu, ba přímo na vybrané lidské jedince, představuje výrazný morální pokrok. Všichni teoretici spravedlivé války se shodují na tom, že existují dvě základní etická pravidla vedení války. Zaprvé: civilisté se nikdy a za žádných okolností nesmí stát cílem útoku. A zadruhé: pokud se předpokládá, že dojde ke ztrátám na životech civilistů (které se však nijak nezamýšlí), musí pro to existovat dostatečně vážný a úměrný důvod.
Představme si, že cílem útoku je hlavní velitelství nepřátelské armády, které se nachází v okolí obydlí civilistů. Přímý útok na toto velitelství přinese z vojenského hlediska obrovské výhody (zneškodnění hlavního štábu a následná dezorientace nepřátelské armády), nicméně nelze vyloučit, či dokonce lze předpokládat, že při útoku zahynou civilisté. Nejsou-li cílem útoku (což nejsou) a existuje-li úměrný důvodu k útoku (dezorientace celé armády převáží smrt několika civilistů), je útok morálně přípustný.
Vezmeme-li v úvahy tato dvě klíčová etická pravidla vedení války, potom podle Statmana představují drony výrazný pokrok. Umožňují cílenější a přesnější útok než bombardování artilerií či letadly a snižují tak riziko ztrát životů civilistů. Kromě toho také mohou snížit počet mrtvých nepřátelských vojáků, budou-li se zaměřovat pouze na strategické cíle či vyšší důstojníky. Navíc je jasné, že bude-li armáda užívat bojových dronů, bude vystavovat menšímu riziku i své vlastní vojáky. Z etického pohledu je zřejmé, že pokud je možné nějakého výsledku dosáhnout s nižším rizikem újmy, měli bychom tuto variantu zvolit.
Navzdory těmto výhodám nasazování dronů existují i etické výhrady. Někteří autoři se domnívají, že zabíjet pomocí dronů není fér: oběť útoku vojenského dronu nemá šanci se nějak bránit, nemá velkou naději svého útočníka zastavit a zneškodnit. Pokud bychom ale tuto námitku brali vážně, museli bychom se bránit využívání i jiných vojenských technologií, jejichž nasazení v bojových situacích podobné etické otázky nevzbuzují. Je férové bombardovat nepřítele z letadlové lodi zakotvené kilometry od pevniny? Je férové využívat těžkou artilerii? A je fér, když se vojáci kryjí v obrněných vozidlech či tancích? Kdybychom byli důslední, museli bychom morálně odsoudit jakýkoli konflikt, který není dokonale symetrický, což ke absurdní. Lze snad tvrdit, že když lidé bojovali s meči, byla armáda s delšími a kvalitnějšími meči neférová vůči svým protivníkům?
Jiní autoři své odmítání dronů zakládají na jiné úvaze. Domnívají se, že naprostá většina vojáků nasazených do bojových činností je morálně nevinná (dostali to příkazem apod.), jediné ospravedlnění zabití jiného vojáka proto podle nich spočívá v tom, že mají právo se bránit. Vojáci válku nezačali a často nemají na výběr, pokud je však někdo chce zabít, mohou zabíjet i oni. Je-li tomu ale tak, potom vezmeme-li nějakým vojákům možnost se efektivně bránit a v aktu sebeobrany usmrtit svého protivníka, stane se zabíjení morálně nepřípustným. Je jasné, že když obsluha vojenského dronu sedí v kanceláři daleko od místa boje, nemohou se cíle jejich útoku skutečně bránit tak, že by útočníkům hrozilo to samé, tedy smrt. Tato úvaha by však opět zapovídala jiné široce přijímané a využívané vojenské technologie a postupy. Mají snad vojáci vtrhnout do domu, kde je zabarikádovaný nepřítel a vystavit se nepřátelské palbě, nebo jsou morálně oprávněni hodit do domu nejdříve granáty? Kdybychom tuto námitku vzali vážně, museli bychom zřejmě zakázat snahu o jakoukoli technologickou převahu nad nepřítelem, přinášela-li by nižší riziko újmy a smrti pro vlastní vojáky.
Podíváme-li se na problém nasazování vojenských dronů ve válečných konfliktech nezaujatým pohledem, musíme dojít k závěru, že při respektování pravidel vedení spravedlivé války ji nečiní horší, ale naopak lepší. Nezvyšují utrpení, ale naopak ho snižují, takže z morálního hlediska představují žádoucí pokrok, nikoli nějaký amorální a neférový krok zpět.
Vyšlo v Mladé Frontě 24. 11. 2019

Rozhovor s prof. Danielem Statmanem
Drony dělají méně chyb než lidé
Přestože má česká armáda ve výzbroji ještě techniku z dob socialismu, v minulém týdnu oznámila, že v roce 2020 vytvoří prapor dronů. Za krok správným směrem to pokládá i profesor Daniel Statman z univerzity v izraelské Haifě, jenž se zabývá teorií spravedlivé války a etikou moderních vojenských technologií. O etice a dronech přednášel v Praze na akci Ústavu státu a práva Akademie věd. Pozitivní přístup k dronům podle něj není samozřejmý.
"Zatímco v Izraeli panuje shoda, že využívání dronů v armádě k cílenému zabíjení je v pořádku, v Evropě to mnoho lidí pokládá za špatné a problematické z morálního hlediska. Přitom se to neliší od využívání min nebo dělostřelectva, které pálí z několikakilometrové vzdálenosti," řekl HN Statman.
Odmítl, že by likvidace nepřátel z nebes byla zbabělá, spíše jde o novou etapu vedení války. Státy, které drony ve svých operacích nevyužijí, budou podle akademika v budoucích konfliktech ve velké nevýhodě.
Drony míří lépe než člověk a způsobí méně škod než bombardéry nebo bojové vrtulníky, když minou cíl a zničí velký prostor. Za největší výhodu však izraelský expert pokládá, že jejich využitím armáda neriskuje životy svých vojáků. Jsou i levnější než bojová letadla.
Ačkoli Statman nepochybuje o tom, že v armádě bude přibývat autonomních strojů, nechce odhadovat, za jak dlouho nahradí vojáky v poli. Zároveň odmítá, že vojska složená z neživých strojů budou velitele svádět k většímu zapojení do konfliktů, v čemž jim dnes brání právě obavy o život vojáků.
Akademik připouští, že využití dronů může negativně ovlivnit operátory, kteří je na dálku ovládají: "Mohou být citově otupělejší než vojáci uvnitř tanku. Je to stejné jako v knize Nahý voják. Snažíte se zabít nepřítele a je to v pořádku, protože jste ve válce. Jenže pak uvidíte nepřátelského vojáka, který je nahý a dává si koupel. Otázka zní − je v pořádku ho v takovou chvíli zabít?" ptá se Statman.
Podle něj zákon války říká, že je to možné. "Přesto máte pocit, že je to nefér a nehumánní. Podobně to může cítit i operátor dronu. Může mu být nepříjemné ho zabít," rozebral odborník situaci, v níž má operátor výhodu v tom, že sám nemůže být zraněn.
Nyní má armáda několik menších dronů. Používá je k průzkumu na zahraničních misích v Afghánistánu či Mali. Z nich se má ze začátku skládat dronový útvar, který vojáci příští rok založí. Zhruba až za tři roky by měla armáda začít pracovat na nákupu bojových dronů, které už využívá například americké či izraelské vojsko.
Vyšlo v Hospodářských novinách 21. 10. 2019. Fotografie Hospodářské noviny.

O vztahu hodnot, etiky a umělé inteligence
Vítězná esej Kamily Houškové
Často se zdá, že vývoj umělé inteligence (UI) je pouze v rukou techniků a programátorů. Poslední dobou je ale čím dál víc očividné, že do jejího vývoje bude potřeba zapojit i ostatní vědní a humanitní obory. Neurologií se vědci inspirovali při vývoji neuronových sítí. Ekonomie zkoumá, jaké dopady by měla robotizace a automatizace na trh práce. Nejvíc je ale s otázkou umělé inteligence spojena filosofie, konkrétně etika. Ta řeší, za jakých podmínek je správné algoritmy používat, a kdy je lepší se obejít bez nich.
Podle jedné definice se obor umělé inteligence zabývá tvorbou strojů řešících úlohy tak složité, že by jejich řešení vyžadovalo lidskou inteligenci. Složité úlohy mohou být dvojího typu. Nekomplexní UI řeší problémy, které budou mít stejný výsledek, ať už se objeví kdykoliv a kdekoliv. To, že je UI nekomplexní neznamená, že úkol, který řeší je jednodušší než ten, který řeší ta komplexní. Pod nekomplexní UI totiž patří i velmi složité matematické operace, které by mnohdy nebyli schopni vyřešit ani lidé. Naopak to, že je UI komplexní neznamená, že se zabývá složitějšími úkoly, ale jen to, že se správný výsledek bude měnit v závislosti na okolnostech. Malá holčička má za úkol jít do obchodu a koupit rohlíky. Přijde do obchodu a zjistí, že rohlíky došly. Ví, že doma mají málo pečiva, obchod brzy zavírá a zítra je neděle, takže obchod bude zavřený. I kdyby robot nebo jakýkoli jiný algoritmus měli všechny tyto informace, pokud příkaz zněl “Kup rohlíky”, jejich systém selže a udělají jen to, co jejich programátor nastavil, že by měli udělat. Ten ale nemůže robota připravit na úplně všechny situace, které by ho kdy mohly potkat. Jelikož neví, na co jiného tato konkrétní rodina zrovna bude mít chuť, řekne prostě robotovi, aby se vrátil domů a zeptal, co má dělat. V tu chvíli ale už může být pozdě, protože obchod přece právě zavírá. Na rozdíl od něj holčička ví, že mají všichni kromě maminky rádi koblihy, a proto koupi jednu bagetu a tři koblihy. Zatím se tuto komplexní UI vytvořit nepodařilo. To není velký problém, znamená to ale, že na mnoho úkolů se UI zatím nedá plně využít.
Různým typům UI bude potřeba sdělovat naše cíle různými způsoby. Komplexní UI bude potřebovat znát celkový kontext, ve kterém se rozhodnutí dělá, zatímco té nekomplexní bude stačit znát zadání. V obou případech je stanovení cíle velmi důležitý krok. Během vývoje i využívání UI na něj musíme myslet, protože pokud bychom ho zanedbali, mohlo by se stát, že stroje nebudou dělat to, co po nich chceme. Někdy si chyby včas všimneme a stihneme stroj zastavit dřív, než problém nastane. Ne vždy je ale čas zasáhnout a ne vždy na stroje někdo dohlíží. Proto je k tomu, aby nám byly prospěšné, potřeba, aby dělaly to, co po nich chceme.
V případě nekomplexní UI je potřeba dávat jasné rozkazy. Pokud naše rozkazy nebudou dostatečně promyšlené, může se stát, že si je vysvětlí špatně. Tak tomu bylo například v příběhu robota Rychlíka z Asimovovy knihy Já, robot.1 V ní se předpokládá, že všichni roboti se řídí třemi zákony robotiky:
- Robot nesmí ublížit člověku nebo svou nečinností dopustit, aby bylo člověku ublíženo.
- Robot musí uposlechnout příkazů člověka, kromě případů, kdy jsou tyto příkazy v rozporu s prvním zákonem.
- Robot musí chránit sám sebe před poškozením, kromě případů, kdy je tato ochrana v rozporu s prvním, nebo druhým zákonem.
Rychlík měl za úkol získat selen z nejbližšího selenového jezírka. K němu se ale nemůže přiblížit, protože by se tím vystavil nebezpečí, čímž by porušil 3. zákon. Kvůli 2. zákonu ale musí pokračovat v plnění úkolu, přestože se ukazuje, že kvůli 3. zákonu je tento úkol nesplnitelný. Kdyby byl Donovan při zadávání úkolu opatrnější a nenakázal Rychlíkovi jít k nejbližšímu selenovému jezírku, mohl by místo toho jít k vzdálenějšímu ale bezpečnějšímu. Takhle musí běhat kolem toho nejbližšího, přestože je pro něj nemožné se k němu přiblížit a rozkaz vykonat. Každopádně vždy se budou dělat chyby a proto je záhodno do přístroje naprogramovat vzorce chování, které má využít v krizových či nepředvídatelných situacích, podobných jako je tato. Většinou jsou zařízení dlouze testována, aby je programátoři připravili na co největší množství možných situací, které mohou nastat. K tomu, aby to udělali, ale musí vědět, jak přesně chtějí, aby se stroj v oné situaci zachoval. To není vždy úplně jasné, protože neexistuje žádný jeden soubor hodnot řazených podle důležitosti, který by byl společný pro všechny lidi na planetě. Proto je například nemožné jednotně vyřešit morální dilema u autonomních vozů. Každopádně by bylo lepší už tuto debatu ukončit a začít první samo-řízená vozidla prodávat, jelikož podle průzkumů by se tím zmenšil počet dopravních nehod až o 90%.2
Ke komplexním UI bude potřeba přistupovat úplně jinak, protože potřebují znát spíše kontext problému a naší motivaci než úkol sám o sobě. To je obzvláště složité, protože jsme ještě nikdy nepotřebovali někoho cíleně učit hodnotové orientaci. Lidé ji samovolně získají socializací a nikoho jiného jsme ji učit nepotřebovali. Stálo by za to vytvořit obor psychologie propojený s informatikou, který by měl za úkol zjistit, co reálně chceme a robotům to pak sdělit, ale to bychom je nejdřív museli naučit abstraktnímu myšlení, aby si pojmy jako je právě štěstí dokázali vysvětlit. U komplexní UI se totiž předpokládá, že úkol provede na základě pochopení našich motivací spíš než na základě pečlivého následování protokolu. Je tedy potřeba, aby správně poznala naše motivace, přijala je za své a chovala se podle nich. Příkladem toho, co se stane, pokud robot nepochopí komplexnost našich motivací, je Asimův příběh robota Herbie. Díky své schopnosti číst myšlenky „ví“, co lidé chtějí, a jako správný robot dělá vše pro to, aby byli spokojení. Když zjistí, že některé informace mohou lidi citově zranit, začne všem říkat jen to, co chtějí slyšet. Nechápe ale, že lidé by potřebovali, aby jim říkal pravdu a podle prvního zákona robotiky dělá to, o čem si myslí, že jim ublíží nejméně. Kvůli tomu se ale stává nepoužitelným. Jeden ze způsobů, jak zjistit motivace člověka je tzv. inverse reinforcement learning popsaný v roce 2000 Andrewem Ngemem a Stuartem Russellem. Stroj pozoruje, co člověk dělá, a z toho vyvozuje, jaké k tomu má důvody. O něco pokročilejší, ale potenciálně méně přesný, je cooperative inverse reinforcement learning, kde člověk může mluvit se strojem a své motivace mu vysvětlovat. To sice ušetří stroji čas, protože pochopí hlavní motivaci člověka rychleji, ale přináší to s sebou riziko přílišné generalizace, protože člověk všechny své dílčí motivace nevysvětlí a robot si jich za použití této metody nevšimne spíše než za pomoci té první.
Každopádně je nutné komplexní UI nikdy nedávat konkrétní cíle. Pokud třeba robot pochopí, že Honzův cíl je být šťastný a Honza mu řekne: „Když se usmívám, znamená to, že jsem šťastný“, zamění robot Honzův úsměv za indikátor jeho štěstí a tedy i za svůj cíl. Potom mu stačí Honzu fyzicky donutit, aby se usmíval, a nemusí ho již vůbec brát v potaz, protože splnil svůj cíl a „učinil Honzu šťastným“. Což samozřejmě nechceme. Komplexní UI si také uvědomí, že k tomu, aby mohla splnit svůj úkol je třeba, aby ona sama existovala. O to víc je důležité, abychom si dali velkou práci s přípravou na její vznik a ujistili se, že jsme schopni ji vytvořit takovou, aby konala ve prospěch lidí. Nick Bostrom v úvodu své knihy Superinteligence3 popisuje hejno vrabců, kteří se pošetile rozhodnou, že si vychovají sovu, aby je přes noc hlídala před predátory. Většina je z nápadu nadšená a hned se rozletí hledat soví vejce aniž by věděli cokoliv o tom, jak ochočit nebo vychovat sovu. Touto nedokončenou bajkou se odkazuje na lidstvo, které se o překot žene do nové éry s umělou inteligencí a nepřemýšlí už tolik nad tím, jak se zařídí, aby se nevymkla naší kontrole. Naštěstí zatím existují jen specializované inteligence, které eventuálně spojujeme do inteligenčních infrastruktur a u nichž vždy víme, co je cíl jednotlivých částí této jednotky a co tedy bude cílem celého souboru. Je pravda, že inteligenční struktury by mohly mít námi nechtěné následky, ale stejně jako u matematických operací je vždy možné se podívat na jejich dílčí části a zjistit, kvůli čemu reagovaly tak, jak reagovaly.
Dost bylo strašení. Řekněme, že jsme nějakým způsobem vytvořili bezpečné stroje s UI, které jsou schopny nahradit některé profese a podnikatelé si je chtějí koupit. Stejně jako během industriální revoluce, majitelé firem jednorázově nakoupí roboty, které pro ně budou bezplatně vykonávat práci, za kterou by kdysi museli platit několika zaměstnancům a jediné jejich výdaje budou směřovat na údržbu těchto robotů. To zas jen podpoří propast mezi nejbohatšími a nejchudšími. Tento systém je sice dlouhodobě zaběhlý, ale to neznamená, že je správný. Peter Frase představil 4 extrémní scénáře světa, ve kterém pro nás budou pracovat roboti v závislosti na tom, jak se vyrovnáme s klimatickou změnou a zda bude bohatství rozděleno mezi všechny. Když necháme klimatickou změnu stranou, je celkem jasné, že pokud bude svět dále rozdělen na bohaté a chudé, budou mít ke všem výhodám poskytovaným UI přístup jen bohatí, a na chudé zbudou vždy jen druhotné vymoženosti. Nedá se říci, že by to pro chudé nutně muselo znamenat špatný život, je dost možné že stroje budou pracovat i za ně. Každopádně je špatné, že již teď docela velké rozdíly v platech se spíš více prohloubí. Úplně nejhorší situace by podle tohoto autora byla v tzv. exterminismus, ve kterém by si bohatí mezi sebou rozdělili klimatickou změnou omezený počet zdrojů a chudé by s největší pravděpodobností nechali do určité míry vymřít. Naopak, pokud by se bohatství rozdělilo mezi všechny, nikdo by nemusel pracovat, což by radikálně změnilo lidský život jako takový.4
Nechme teď tuto teorii stranou. Mnoho lidí se obává, že stroje lidem „ukradnou“ práci. Do určité míry asi mají pravdu. Stejně tomu bylo při industriální revoluci, kdy pracovníky v manufakturách nahrazovaly stroje a pásová výroba. I nyní vznikne mnoho nových pracovních pozic, které si zatím ještě ani neumíme představit. Je pravda, že mnoho lidí bude mít problém měnit svou kvalifikaci, ale naštěstí tato změna bude pozvolná a lidé si na ni budou mít příležitost pomalu zvykat, takže z ní nebudou mít žádný šok.
Zaměřovali jsme se zatím na lidskou společnost, ale co roboti? Již teď se stává, že někteří z nás mají silný vztah k robotům a jsou pravděpodobně připraveni bojovat i za jejich práva. Je to běžnější spíš v Asii, kde se o čím dál tím početnější stárnoucí populaci nemá kdo starat, a tak vyvíjejí různé typy robotů, kteří lidem dělají společnost. Mezi nimi jsou i chatboti, kteří jsou do určité míry schopni konverzovat, což je lidem příjemné a často je po určitém čase dokonce začnou považovat za své kamarády. Zní to jako pošetilost, ale stejně jako Helena z Čapkovy hry RUR5 jsou mnozí jistě připraveni bojovat za práva robotů. Jeden Číňan si dokonce vzal za ženu robotku, kterou si předtím sestrojil. Již teď se rozvíjí trh se sexuálními roboty a jen 40% Britů nepovažuje sex s robotem za podvádění partnera.6 I pro mnoho postižených lidí toužících po pocitu blízkosti je robot praktičtější a méně náročnější volba než shánění lidského partnera. Problém nastane, pokud by se roboti až příliš rozšířili, a vztahy s nimi by byly pro širokou populaci snadnější a příjemnější než vztahy s ostatními lidmi. Roboti se s vámi nehádají, udělají prostě to, co chcete. A pokud by někomu vadila přílišná pasivita, jistě by se daly naprogramovat i občasné menší či větší konflikty.
Jedno je ale jisté, roboti nemají vědomí a proto nejsou schopni pocitů, i když … neumíme úplně popsat, co přesně je vědomí. Vědomý prožitek je velice individuální věc a vlastně ani nemáme jistotu, že i všichni ostatní lidé mají vědomí. Klidně by mohli být tzv. zombie - lidé bez vědomého prožitku, kteří se jen chovají a tváří jako kdyby ho měli, ale reálně nic necítí. Toto svým způsobem navazuje na argument čínského pokoje. Argument čínského pokoje uvažuje, že by mohl existovat stroj, který by inteligentní chování uměl simulovat jako někým připravenou sadu reakcí na všechny možné otázky, aniž by nad čímkoliv sám „přemýšlel“. Ten je do určité míry protikladem Turingova testu, který říká, že za inteligentní můžeme prohlásit ten stroj, jehož lingvistický výstup nerozeznáme od lingvistického výstupu člověka. Argument čínského pokoje bychom ale stejným způsobem mohli do určité míry použít i na ostatní lidi, protože máme přístup jen ke svému vědomí a nemáme žádnou záruku existence vědomí těch ostatních.
Vraťme se tedy do přítomnosti. Čím dál tím více se ve svém každodenním životě setkáváme s UI, která nějakým způsobem ovlivňuje naše rozhodnutí. Smartphony jsou plné aplikací využívajících UI. Nejde jen o asistenty typu Siri, kteří za nás vyhledávají informace a snaží se přitom co nejlépe napodobit lidskou komunikaci, ale také filtry fotoaparátů, které už umí vyhledávat obličeje a různě upravovat realitu, aby se nám zalíbila. UI je také k nalezení ve všech aplikacích poskytujících hudbu, když nám nabízí nové písničky podle toho, jaké nejvíce posloucháme. Systém odhadování, co se nám bude líbit v závislosti na našich již známých zájmech, je používán všude, kde nám UI může nabízet věci, které by se nám mohly líbit. Mimo jiné i na Netflixu a ve všech online reklamách. To může být výhoda, jelikož se k nám dostávají jen relevantní reklamy na produkty, které nás zajímají. Na druhou stranu to ukazuje, kolik toho o nás firmy vědí, což je dost znepokojující. Obzvlášť vzhledem k tomu, že nemají problém tyto informace použít proti nám, pokud jim to nějakým způsobem přinese zisk. I klasické algoritmy zabudované v sociálních sítích mohou modifikovat naše chování. Starají se o to, které příspěvky uvidíme první a které se nám zobrazí tak daleko, že se k nim třeba ani nedostaneme a tím vlastně rozhodují o tom, jaký zážitek na sociálních sítí budeme mít. Sice to samo o sobě nezní až tolik děsivě, ale když si uvědomíme, že průměrný člověk na sociálních médiích stráví dvě hodiny denně,7 a přitom je ovlivňovaný pořád stejnými korporacemi, hned má člověk tendenci být o něco opatrnější.
V oblasti etiky UI jsou naštěstí i o něco méně fatální kapitoly. Mezi ně bych řadila například i tzv. rasismus UI. Když se chatboti učí sociální interakci za pomoci sociálních médií plných vášnivých a jen málokdy slušných hádek, které jsou přítomny na většině diskuzních fór na internetu, není až tolik překvapivé, že se odtamtud tento styl komunikace naučí. Podle mě to však není problém způsobený UI, ale pouze ukazatel rasismu, který je stále přítomný v naší společnosti, přestože se ho snažíme zbavit. Problém potom je, když má UI na takových rasistických podkladech posuzovat lidi. Při jakýchkoli soudech by měl člověk být posuzován jako jednotlivec podle svých činů a ne podle činů ostatních příslušníků jeho skupiny. Naneštěstí toto by v praxi marketingovým společnostem nevynášelo tolik peněz, takže jejich softwary prostě nenapravíme. V každém případě by však UI, které budou radit u soudu neměly mít přístup k informacím o vzhledu a socioekonomické situaci obžalovaného.
V tomto článku jsme se na umělou inteligenci dívali snad ze všech možných i nemožných úhlů z pohledu etiky. I přesto je kolem UI ještě mnoho dalších problematik, o kterých jsme nestihli nezmínili. Jako třeba její použití ve válce, nebo jestli se kvůli ní z nás všech stanou lenoši. Co byste si z něj měli zapamatovat, je hlavně to, že pokrok je sice dobrá věc, ale vždy s sebou nese i nějaká svá úskalí, na která musíme být připraveni. Jestli se někdy podaří vytvořit umělou inteligenci ať už stejně chytrou nebo ještě chytřejší než člověk, bude to velký úspěch nebo průšvih. Proto teď musíme udělat všechno pro to, aby se to povedlo co nejlépe nebo vůbec.
Reference:
¹ ASIMOV, Isaac. I, robot. New York: Bantam Books, 2008. Robot series. ISBN 978-0-553-38256-3.
² CREW, Bec. Driverless Cars Could Reduce Traffic Fatalities by Up to 90%, Says Report [online]. 2015 [cit. 2019-05-27]. Dostupné z: https://www.sciencealert.com/driverless-cars-could-reduce-traffic-fatalities-by-up-to-90-says-report
³ BOSTROM, Nick. Superinteligence: až budou stroje chytřejší než lidé. V českém jazyce vydání druhé. Praha: Prostor, 2018. Globus (Prostor). ISBN 978-80-7260-389-3.
⁴ FRASE, Peter. Four futures: visions of the world after capitalism. London: Verso, 2016. ISBN 978-178-1688-137.
⁵ ČAPEK, Karel. R.U.R. V Praze: Fortuna Libri, 2018. ISBN 978-80-7546-163-6.
⁶ GRIFFITHS, Josie. Four in ten Brits don’t consider sex with a robot cheating… so where do YOU stand?[online]. 2017 [cit. 2019-05-27]. Dostupné z: https://www.thesun.co.uk/living/4311136/brits-dont-consider-sex-with-robot-cheating/
⁷ ASANO, Evan. How Much Time Do People Spend on Social Media? [online]. 2017 [cit. 2019-05-27]. Dostupné z: https://www.socialmediatoday.com/marketing/how-much-time-do-people-spend-social-media-infographic

Vyhlášení vítězky
Soutěž o nejlepší esej o etice a umělé inteligenci
Centrum Karla Čapka pro studium hodnot ve vědě a technice oznamuje vítěze soutěže pro studenty středních škol o nejlepší esej na téma „Etika umělé inteligence“. Na prvním místě se umístila studentka Gymnázia Nad Alejí Kamila Houšková se svou prací s názvem „Esej o vztahu hodnot, etiky a umělé inteligence“. Vítězka obdrží 10.000 korun a její esej bude publikována na webu www.cevast.org.
Cookies