Novinky
Etika umělé inteligence: kde jsme a proč nevíme, kam dál
David Černý, Jiří Wiedermann
Umělá inteligence (UI) se ve všech svých rozličných podobách a ztělesnění stala za poměrně krátkou dobu všudypřítomnou součástí naší společnosti. Komunikuje s námi v chytrých telefonech, počítačích a tabletech, dohlíží na finanční transakce platebními kartami, dokáže nás porazit v oblastech, v nichž jsme si dlouho mysleli, že nás ohrozit nemůže, jako jsou šachy či populární televizní soutěž Jeopardy! Umělá inteligence poskytuje rady lékařům při řešení obtížných etických dilemat, diagnostikuje některé choroby a je v tom stále lepší a lepší, řídí společenské či záchranářské roboty a v horizontu několika let (možná desetiletí) převezme naše místo řidičů a stane se součástí plně autonomního provozu.
UI může být prospěšná, pokud ji budeme užívat dobře a pro správné účely, může se ale také stát nástrojem rostoucího dohledu státní moci, který nás bude sledovat na každém kroku a dohlížet na to, abychom se chovali přesně tak, jak si stát přeje. Může posílit mechanismy demokratické správy naší společnosti, stejně tak se ale může stát nástrojem jejich potlačování. Může být vynikajícím sluhou, ale velmi špatným pánem. Aby se tak nestalo, je nezbytné najít řešení problému, jak by se UI měla chovat, aby se chovala správně, jakými pravidly by se měla řídit, aby její rozhodování a jednání bylo eticky správné a neubližovalo nám.
Hodnotová dimenze (co je dobré a správné) by měla vstupovat do všech fází vývoje, návrhu designu, testování, implementace a využívání systémů UI. Již samotná existence AI a její účel může mít výrazný etický náboj, jako tomu je například v případě robotických žokejů, kteří se na hřbetech závodních velbloudů prohánějí po závodních drahách Kataru. Kratochvíle bohatých šejků, kteří donedávna v podstatě zotročovali malé chlapce z chudých rodin a nedávali jim dostatečně najíst, aby si udrželi nízkou váhu a výhodu nad jinými žokeji. Jejich robotičtí náhradníci svou existencí umožňují pokračování těchto závodů a třebaže sami nedisponují jednáním, jež by mělo být podřízeno nějakým etickým normám, učinili Katar lepším a eticky korektnějším místem.
Sofistikovanější systémy UI však takto eticky impaktní (jak tyto stroje nazývá známý etik UI z Dartmouth College v USA James H. Moor) nejsou, v jejich případě lze hovořit o funkční morálce, tedy určité „citlivosti“ vůči hodnotám a nějaké míře autonomie. Například medicínský expertní systém MedEthEx, navržený počítačovým vědcem Michaelem Andersonem a jeho ženou, filosofkou Susan Andersonovou, v podstatě žádnou autonomii nemá, je však schopný provádět základní etickou rozvahu a poskytovat lékařům rady při řešení eticky svízelných otázek lékařské praxe. Autopiloti řídící letadla zase mají poměrně vysokou autonomii, jejich „rozvaha“ však není přímo založená na hodnotách, ale spíše na parametrech letu, komfortu a bezpečí pasažérů. Od autonomních vozidel očekáváme, že budou jednoho dne v nedaleké budoucnosti plně autonomní (odvezou nás z bodu A do bodu B po všech běžných typech vozovky) a současně budou disponovat sofistikovaným rozhodovacím mechanismem distribuce újmy v případě kolize. Hudbou budoucnosti potom jsou plnohodnotní morální aktéři – jak jim říkají průkopníci na poli etiky UI Wendell Wallach a Collin Allen –, kteří dokáží nejen formulovat etické soudy a aplikovat je na své vlastní jednání, zvládnou také tyto soudy nějakým způsobem ospravedlnit.
Asimovovy zákony robotiky aneb když roboti blázní
Jak by měla v praxi vypadat pravidla, jimiž by se systémy UI mohly řídit? A jakým způsobem bychom jim tato pravidla měli vštípit? Jednou velmi populární a široce diskutovanou možností je tzv. přístup „shora“: zvolíme si nějaká obecná pravidla jednání, která zabudujeme do příslušného software a prostřednictvím formálního aparátu deontické logiky je obohatíme odvozovacími pravidly.
Myslíme si, že drtivá většina z nás zná amerického vědce a neuvěřitelně plodného spisovatele sci-fi Isaaca Asimova, který společně s Johnem W. Cambellem v roce 1940 formuloval tzv. tři zákony robotiky, jež mu svou obecností a nesnadnou aplikovatelností v praxi – jak Asimov sám přiznává – umožnily stvořit celou řadu nezapomenutelných příběhů. Tyto tři zákony robotiky se poprvé objevily v roce 1942 v povídce Runaround (v češtině Rychlík) a mají následující podobu:
- První zákon: Robot nesmí ublížit člověku, nebo svou nečinností dopustit, aby člověku bylo ublíženo.
- Druhý zákon: Robot musí uposlechnout příkazů člověka, kromě případů, kdy tyto příkazy jsou v rozporu s prvním zákonem.
- Třetí zákon: Robot musí chránit sám sebe před zničením, kromě případů, kdy je tato ochrana v rozporu s prvním nebo druhým zákonem robotiky.
Dohromady tyto zákony představují principy, jež by v praxi měly zajišťovat eticky korektní jednání UI (v Asimovových povídkách a novelách jsou tyto zákony pevnou součástí robotických pozitronických mozků). I dnes má tento přístup některé zastánce (ti však počet těchto zákonů rozšiřují o další, např. o zákon, že robot musí chránit sobě nadřazeného robota, pokud to není v rozporu s jinými zákony, či že musí vykonávat povinnosti, pro něž je určený, opět pokud to neodporuje vyšším zákonům), již Asimov však ve svých povídkách sebraných ve sbírce Já robotukázal, že jeho zákony robotiky mohou UI dostat do svízelných situací. Vezměme si např. první zákon, podle kterého robot nesmí lidem působit újmu nebo dovolit, aby újma nastala. Znamená to, že třeba chirurgický robot by nesměl provést řez do pacientova těla? V první povídce sbírky Já robotvypráví Asimov o Robbiem, který zachránil malou Glorii před řítícím se lokotraktorem a strhnul ji stranou tak silně, že jí vyrazil dech. Bylo jeho jednání porušením 1. zákona, nebo nebylo? Je nepochybné, že Glorii nějakou újmu způsobil, bylo to ale eticky ospravedlněné způsobení újmy? A pokud ano, jakým způsobem se UI má v praxi rozhodovat? Jaká újma je oprávněná a jaká již není? Když robot zabije člověka, aby zachránil sto jiných, je to morálně korektní způsobení újmy?
Obecný problém spojený se všemi přístupy „shora“, nejen tedy s Asimovovými zákony robotiky, spočívá v tom, že jednotlivá pravidla jsou příliš obecná a není zřejmé, jak bychom v nějaké konkrétní situaci měli sestoupit z obecnosti pravidel ke konkrétnosti jedinečného a pro tuto situaci platného morálního soudu. Navíc hrozí, že se jednotlivé zákony dostanou do konfliktu, který ohrozí samotnou možnost UI myslet, přijímat rozhodnutí a jednat. Velmi dobře to ukazuje povídka Rychlík z roku 1942. Dva astronauté pobývající na povrchu Merkuru poslali svého robota Rychlíka k blízkému selénovému jezírku, aby z něj získal selen, nezbytný pro fungování slunečních baterií a samotné přežití obou mužů. Vzhledem k tomu, že selénové jezírko bylo díky jisté anomálii pro robota hrozbou a rozkaz přinést selen nebyl vydaný dostatečně důrazně, došlo ke kolizi druhého a třetího zákona a robot se ocitl ve stavu ekvivalentnímu lidské opilosti; neustále obíhal jezírko po trajektorii odpovídající rovnováze mezi hrozícím nebezpečím a síle druhého zákona. Teprve chladnokrevná úvaha a jednání obou mužů vedly k prosazení prvního zákona v robotově mozku a jeho návratu do normálu. Můžeme si také připomenout povídku Lhář!, v níž robot Herbie náhodou získá schopnost číst myšlenky a řídě se prvním zákonem robotiky, lže lidem kolem sebe, aby jim pravdou neublížil. Výsledkem ale je, že ublížil všem. Všechny tyto problémy ukazují, že vtisknout umělé inteligenci Asimovovy tři zákony robotiky (či nějaké jejich rozšíření) nepředstavuje slibnou metodu vytváření eticky korektní UI.
UI je dobrý počtář… Tak ji nechme počítat
Možná bychom si měli vzít poučení z předchozího nezdaru a namísto několika obecných a v praxi obtížně aplikovatelných pravidel bychom měli zvolit pravidlo jediné, s nímž podobné problémy nebudou. Jak by takové pravidlo mohlo vypadat? Začněme konkrétním příkladem.
Autonomní vozidla (AV) sice sníží počet dopravních nehod (v ideálním případě až o 93 %, protože právě takové množství nehod je způsobeno řidiči), nehodám se však nevyhnou zcela. Jak by se měla v takovém případě rozhodovat? Jednou z možností je, že řídící software AV nejdříve naučíme kategorizovat možnou újmu do tří velkých skupin: majetková, zdravotní a na životech. Posléze vymyslíme nějaký systém kvantifikace těchto forem újmy (můžeme to udělat různými způsoby, které zde ale nemůžeme rozvádět) a do rozhodovacích mechanismu AV vtělíme funkci, která v případě hrozící kolize přiřadí všem možných trajektoriím číslo, udávající celkovou újmu, pokud si AV tuto trajektorii zvolí. A nakonec to nejdůležitější: jediným etickým pravidlem, jimž se AV budou řídit, bude jednoduché pravidlo minimalizace újmy. Řekněme, že se AV musí rozhodnout mezi dvěma trajektoriemi: první povede ke smrti jednoho člověka, druhá ke smrti tří lidí. Protože celková újma je v prvním případě nižší, zvolí si AV tuto variantu, i když svou volbou usmrtí jednoho člověka.
Etika, která požaduje minimalizaci újmy, se nazývá utilitarismus a představuje jeden z nejrozšířenějších etických systémů. Je to celkem pochopitelné, neboť obsahuje pouze jediné pravidlo, které se navíc zřejmě dá velmi dobře aplikovat v praxi. V případě AV jsme viděli její negativní stranu (minimalizaci újmy), má ale také stranu pozitivní (maximalizuj dobro); dobré – eticky správné – jednání je potom prostě takové, jehož důsledky maximalizují dobro (v případě, že má dobré i špatné účinky), nebo které minimalizuje újmu (zaměřujeme-li se pouze na účinky negativní, jako v případě AV).
Je tedy utilitarismus svatým grálem etiky UI? Můžeme s klidným srdcem říci, že všechny systémy UI by se měly řídit touto etikou, a pokud se budou řídit touto etikou, budou jednat správné a pro nás lidi blahodárně? Bohužel, nemůžeme.
Utilitarismus je zvláštní a do značné míry extrémní etika. Říká nám totiž, že máme maximalizovat dobro bez ohledu na to, jak tuto maximalizaci provedeme. V případě AV tak hrozí, že řídící software našeho auta obětuje nás i s rodinou, bude-li to znamenat, že způsobí méně újmy. Kdo z nás by si ale takové auto kupoval? Opravdu bychom našli odvahu sednut si do vozidla, které nemilosrdně prověřuje všechny možné trajektorie jednání a volí způsobem, v němž je jeho posádka pouhým členem morální rovnice rovnocenným se všemi ostatními? A co třeba pečovatelští roboti? Představme si, že si v budoucnosti pořídíme vysoce sofistikovaného robota, který je naprogramovaný pečovat o naše potomky. Přáli bychom si, aby se řídil utilitarismem, i kdyby to znamenalo, že když bude náš potomek v ohrožení života, robot se vydá zachránit jiné dva lidi, kteří se shodou okolností také ocitli v ohrožení života? Tyto problémy ukazují, že třebaže je utilitarismus jednoduchý a v praxi víceméně snadno aplikovatelný, v mnoha případech bychom se jen obtížně smiřovali s tím, kdyby se jím UI řídila.
Dodržuj pravidla a vše bude OK
Problém s utilitarismem, alespoň v té nejznámější podobě, o níž jsme hovořili, spočívá v tom, že neuznává existenci žádných morálních norem, např. normy „nikdy nesmíš zabít nevinného člověka“, „nikdy nesmíš lhát“, „nikdy nesmíš dát přednost ostatním před svým majitelem“ apod. Umělé inteligenci by namísto „nikdy nelži“ uložil, aby spočítala zisky a ztráty a v případě, že jejich poměr nahrává lhaní, klidně by lhala. Viděli jsme však, že této přístup má celou řadu problémů (Směl by např. vojenský robotický systém obětovat několik civilistů, aby zabil hledaného teroristu?), možná bychom se proto měli pokorně vrátit k hledání nějakých obecných etických principů. Namísto abychom je však UI vštípili pouze „shora“, formou pravidel, pokusíme se k nim přistupovat i „zdola“ a učit je, jak pravidla v praxi používat. Díky této kombinaci obou přístupů si UI sama utvoří jakási prostřední, překlenovací pravidla, díky kterým v konkrétní situaci přemostí obecnost hlavních pravidel a jedinečnost dané situace.
12. 12. 2018 publikovala High-Level Expert Group on Arificial Intelligence při Evropské komisi návrh etických směrnic pro věrohodnou UI (Ethics Guidelines for Trusthworthy AI), v níž se o podobný přístup pokouší. Tato věrohodná UI by měla:
- Respektovat lidskou důstojnost, práva a hodnoty;
- Být technicky natolik robustní, aby byla transparentní a spolehlivá.
Věrohodná UI by měla těchto eticky významných cílů dosáhnout tím, že bude respektovat pět základních etických principů (vzhledem k důrazu na principy se tomuto přístupu říká principlismus): princip dobročinění (čiň dobro), princip neškození (neubližuj), princip autonomie (respektuj autonomii lidských jedinců a neomezuj ji), princip spravedlnosti (jednej s lidmi spravedlivě) a konečně princip transparentnosti (jednej transparentně). Z těchto pěti principů je možné odvozovat konkrétnější a konkrétnější morální normy, jimiž by se UI měla v praxi řídit.
I tento přístup však naráží na určitá úskalí, zvláště když se jednotlivé principy dostanu do sporu a je třeba rozhodnout, který z nich musí dostat přednost. Princip spravedlnosti by například medicínskému expertnímu systému ukládal, že při rozdělování vzácných zdrojů – např. transplantovatelných orgánů – musí spravedlivě zvážit všechny faktory a všechny pacienty. To ale může znamenat, že nad některým pacientem vyřkne ortel smrti, neboť mu odepře vitálně důležitý orgán. Vzhledem k tomu, že i tímto způsobem (neposkytnutí orgánu) způsobí pacientovy újmu, je jeho jednání v souladu či v rozporu s druhým principem? Nebo zvažme řídící software autonomního vozidla, které se v kolizní situaci rozhoduje, jakým směrem se vydá; toto rozhodování je rozhodováním o životě a smrti lidí. Smí taková rozhodování činit? A není zde v rozporu první princip (čiň dobro, tj. zachraň nějakého člověka) s druhým principem (neškoď, tj. nesmíš nikoho zranit či usmrtit)?
Tato dilemata se v případě obecných etických principů budou objevovat neustále a pokud chceme UI naučit, jak v konkrétních případech volit, musíme sami vědět, co v nich je morálně správné a co již není. Problém je samozřejmě v tom, že to mnohdy sami nevíme, proto podobné situace označujeme za morální dilemata.
Jak dál, když nevíme kudy kam?
Viděli jsem, že třebaže současná etika disponuje propracovanými etickými systémy, jejich využití k regulaci chování UI nebude vůbec jednoduché. Možná se budeme muset vzdát představy, že UI se bude muset podřídit jen jedinému etickému systému a představy, že každá forma UI a jejího ztělesnění se bude řídit stejnými etickými pravidly.
Podívejme se opět na autonomní vozidla. Tlak na jejich zavedení do praxe je zřejmý a nepochybně morální povahy: zachráníme tak obrovské množství lidských životů. Je proto dobré, aby AV brázdila naše silnice co nejdříve a aby se celá naše doprava nakonec stala autonomní. Tohoto cíle však nedosáhneme tak, že budeme vyrábět AV, která si lidé nebudou chtít kupovat, jimž odmítnout svěřit své životy a životy svých nejbližších. Možná proto budeme muset vytvořit hybridní etický systém (složený z více než jednoho etického systému), který do určitého poměru škody (jehož hodnotu můžeme určit empirickým výzkumem názorů potenciálních uživatelů AV) bude vždy dávat přednost posádce (bude tedy respektovat obecnou normu „ochraň posádku“), nad tímto poměrem se však začne chovat jako chladný počtář a srovnávat jednotlivé újmy (utilitarismus).
V případě vojenských robotů zase budeme požadovat, aby se v určitých situacích nikdy nechovali jako chladní počtáři sčítající a odečítající životy a řídili se pravidlem „nikdy nesmíš přímo usmrtit civilistu“, zároveň však budeme chtít, aby chápali morální rozdíl mezi přímým zabitím a zabitím nepřímým (např. v případě, že autonomní dron bude bombardovat muniční sklady a předpokládat, že tato akce povede ke smrti nevinných civilistů, které však neusmrtí přímo). Je ale zřejmé, že princip zakazující působit újmu bude muset ustoupit nějaké konkrétnější verzi, aplikovatelné na válečný stav, např. „smíš usmrtit nepřátelského vojáka, nikdy však civilistu.“
Lékařští roboti budou v některých situací jednat ve shodě s utilitarismem (např. při rozhodování o rozdělení vzácného léku), jindy však ne (např. když by uvažovali, zda smějí usmrtit jednoho pacienta a jeho orgány použít na záchranu životů pěti jiných pacientů). Kromě toho budou muset získat jasná pravidla vysvětlující pojem újmy; újmou v kontextu operace není amputace nohy, třebaže v jiném kontextu nepochybně újmou je. Ani v případě aplikace prvního principu nebudou mít snadnou situaci. Pro některé pacienty může být dobré zemřít (trpí neutišitelnou bolestí), bude tedy eutanazie v souladu s tímto principem? Může s ním být v souladu zatajení vážnosti diagnózy z paternalistických důvodů (ve prospěch pacienta)? A opět, nebude to v rozporu s principem autonomie? Na druhou stranu, existují situace, kdy je pacientovi lepší diagnózu v plné šíři a závažnosti nesdělit (terapeutické privilegium), měla by tedy UI upřednostnit princip neškození před principem ukládající respekt k lidské autonomie? Jak ji naučíme tyto delikátní situace rozlišovat?
Všechny tyto problémy ukazují, že zatím více méně tápeme v temnotách. Prozatím to není velký problém, protože UI zatím dokáže řešit jen úzce vymezené problémy v daných oblastech, pro něž není tak obtížné stanovit nějaká etická pravidla. S narůstáním schopností UI a šířkou jejích aplikací ve společnosti se však potřeba jasně stanovit etická pravidla jejich chování stane skutečně urgentní a přijít s nějakým dobrým a široce přijímaným řešením nebude vůbec snadné.
Vyšlo v časopise Computerworld.
Láska, sex a roboti
Zvěd S01E03
Budou sexuální roboti jen zpestřením sexuálního života, nebo společenskou hrozbou? Máme jen strach z neznámého, nebo se opravdu může stát, že vyměníme blízkost, vztahy a intimitu za konzumní rozkoš. Co myslíte vy?
Čína dneška: Kamery vás poznají podle tváře i stylu chůze. Za sedm minut vás mají
Čínský režim se v posledních letech snaží utužovat kontrolu nad svými občany. Kromě všudypřítomných policistů k tomu slouží i nově dostupné digitální technologie. Nejviditelnější inovací jsou kamery s rozpoznáváním obličejů, které Čína objednává po stovkách milionů kusů.
Kamery monitorující čínské ulice, silnice i budovy v sobě mají špičkovou umělou inteligenci (AI), do jejíhož vývoje čínská vláda investuje nejvíc na světě. Po napojení na cloudové databáze shromažďující informace o jednotlivých občanech se tak jedná o velmi efektivní způsob dohledu nad populací a vyhledávání zločinců. Čína ale nechce ve svých „bezpečných městech“ zůstat u trestání nebo zabraňování zločinu. Dalším krokem je jeho předvídání a trestání ještě před tím, než se vůbec stane.
Najdou vás za sedm minut
Do bezpečnostních systémů v jihozápadním městě Kuej-jang vložili fotku hledaného bělocha. Už během chvíle ho zachytily kamery na vlakovém nádraží. V tu chvíli umělá inteligence upozornila lidské operátory na policejní ústředně, že hledaný člověk byl nalezen. Od vložení fotky do systému to trvalo jen sedm minut, než muže zadržela policejní hlídka.
Takto reportér BBC otestoval schopnost čínského „bezpečného města“ najít hledanou osobu. Až neuvěřitelnou rychlost umožnila síť kamer s rozpoznáváním obličejů, které pomocí umělé inteligence vyhodnocují jednotlivé osoby v dohledu a porovnávají jejich tváře s cloudovou databází portrétů. Pokud AI vyhodnotí vysokou shodu, automaticky operátorům v bezpečnostním centru nahlásí přítomnost hledané osoby. Zatčení reportéra proběhlo rychle i díky tomu, že byl na vlakovém nádraží, jednom z hlavních dopravních uzlů, kde je bezpečnost mnohem větší prioritou než například na okraji města. I tak je to ale úctyhodný výkon a v případě pokrytí celého města stejnými kamerami bychom došli k podobnému číslu i tam.
Kuejjangský systém ale nepátrá pouze po hledaných osobách. Monitoruje a ukládá informace o aktivitách všech, které na svých kamerách zahlédne. Podle tamější policie pak úřady dokážou dohledat pohyb a chování všech občanů v databázi za poslední týden. Tedy kam chodili, s kým se stýkali a podobně.
Bezpečnost důležitější než soukromí
V Číně je poměrně obtížné zjistit, co si tamní populace skutečně myslí. Masivní cenzura a policie řešící ideologické zločiny úspěšně znemožňují svobodu slova. Z toho, co víme – nebo co si máme myslet, se ale zdá, že Číňané nová bezpečnostní opatření vítají. Stejně jako například zásah do soukromí v podobě systému společenské důvěryhodnosti, pro nás, obyvatele Česka, v dané míře nepředstavitelný.
Pro čínský režim tedy není problém bez jakýchkoliv etických diskuzí zapojovat do bezpečnostních otázek experimentální technologie, jako je AI s hlubokým učením (deep learning). I proto mohou být čínské kamery tak efektivní. Kromě jejich počtu (v roce 2017 to bylo 170 milionů zařízení, do roku 2020 by to mělo být 570 milionů) jsou totiž extrémně výkonné i díky investicím do čínských AI start-upů a vědeckých institucí, které se umělou inteligencí zabývají.
Ještě efektivnější se zdá být rozpoznávání držení těla a styl chůze, tzv. gait recognition. Tyto systémy se už používají například v Pekingu nebo Šanghaji. Výhodou současného provedení od firmy Wetrix je to, že se jedná pouze o software. Rozpoznávání chůze je tedy možné použít i na záznamu z běžných kamer, program navíc umí rozeznávat i osoby otočené zády, ale jelikož zatím neumí rozeznávat jednotlivce v reálném čase, není příliš vhodný pro státní potřeby. To se ale může v budoucnu změnit, především pokud bude rozpoznávání chůze přímo v hardwaru kamer.
Čínská bezpečná města také zavádějí aplikace, pomocí nichž je možné nahlašovat zločiny. Nově ale ohlašuje i programy, díky nimž budou moci běžní občané pomáhat sledovat záznamy z bezpečnostních kamer a hlásit kriminální činnost svých sousedů. Ty se ale zatím nesetkávají s příliš vřelou reakcí.
Čínský trh s technologiemi bezpečných měst je největší na světě, což láká zahraniční bezpečnostní firmy, jejichž produkty potom může díky nuceným technologickým transferům následně využívat. Čínské firmy Hikvision (spolupracuje s Jablotronem) a Dahua tak již dnes patří ke špičkám v této oblasti. Tyto technologie nyní Čína spíše už také exportuje, ty důmyslnější pak především do autoritářských zemí, které nemají s jejich využíváním etický problém.
Placení v metru telefonem nebo on-line nemocniční služby
Kromě bezpečných měst Čína buduje také chytrá města, smart cities. Na rozdíl od českých politiků o tom čínští komunisté nejen mluví, ale skutečně určité prvky již zavádějí.
Bezpečnostní kamery a sofistikované senzory tak slouží například i k lepšímu monitorování dopravy. Data nasbíraná systémem se v reálném čase vyhodnocují umělou inteligencí, která následně optimalizuje nastavení světelných křižovatek. AI také umožňuje hladší průjezd záchranným vozům, kterým uvolňuje díky semaforům cestu. V mnohých případech tak byl jejich výjezd o polovinu rychlejší.
Dalším aspektem je placení telefonem, nebo někde dokonce „úsměvem“. Čína patří mezi země, které přeskočily období stolních počítačů a notebooků a rovnou přešly na chytré telefony. Číňané je používají úplně na všechno. Zároveň se také nikdy úplně běžnými nestaly kreditní karty, a tak mnohé oblasti přecházejí z placení hotovostí přímo na placení pomocí mobilních aplikací, jako je AliPay (od technologického a e-komerčního giganta Alibaby) nebo WeChat Pay (od firmy Tencent). Zavádění platby telefonem v pekingském metru tedy nebyl žádný problém. Stejně tak není nijak zvláštní, když žebráci mají QR kódy. Ty načtete některou ze zmíněných aplikací a na žebrákův účet převedete příslušnou částku.
O něco kurióznější je placení „úsměvem“. Funguje tak, že kamera s funkcí na rozpoznávání obličejů nasnímá vaši tvář a propojí se s vaší platební aplikací. V šanghajském KFC tak ani nemusíte telefon vytahovat. Podobně ale fungují i některé čínské veřejné toalety. Tady obličeje rozeznávají dávkovače toaletního papíru. Tím se má zabránit krádežím a nadužívání tohoto v komunistických režimech tradičně ceněného materiálu…
„Smart“ jsou ale i některé čínské nemocnice, umožňující vyřizování úkonů jako placení nebo sjednávání prohlídek přes internet. Zároveň se na úrovni měst vytvářejí cloudové databáze, díky nimž lékaři v různých nemocnicích mohou získat přístup ke složce zatím neznámého pacienta na sále. Cloudové databáze a sdílení se využívají i v některých čínských školách.
Čína bude napřed, ale za jakou cenu?
Dá se očekávat, že čínské úsilí ve vývoji umělé inteligence, analýzy velkých dat a budování bezpečných a chytrých měst bude vůči Západu velmi napřed. Zároveň si ale Čína především v oblasti AI a deep learning zahrává s ohněm. Tyto technologie zatím nejsou dostatečně vyzkoušené a vědci často přiznávají, že úplně přesně nevědí, jak to funguje. Asi se zatím nemusíme bát situace typu SkyNet a povstání strojů, ale AI s přístupem k silničním semaforům může také napáchat nemalé škody.
Původně publikováno: Svět chytře, 8. 2. 2019. Převzato se souhlasem redakce. Autorem textu je Filip Jirouš, analytik projektu Sinopsis.
Cookies