Open menu
Lepší andělé: jak nám umělá inteligence může pomoci být morálně lepšími

Lepší andělé: jak nám umělá inteligence může pomoci být morálně lepšími

Tomáš Hříbek

Americký kognitivní psycholog Steven Pinker je mimo jiné známý vírou v morální pokrok. Tato víra není v současnosti příliš populární, zvláště ne mezi akademiky, kteří ji vesměs považují za beznadějně naivní – za zbožné přání, podpořené jen částečnou či anekdotickou evidencí. Pinker však ve své nedávno publikované knize na dané téma, nazvané Lepší andělé: Proč ubývá násilí, opřel své přesvědčení o existenci morálního pokroku o bezkonkurenčně největší objem dat všeho druhu a navíc o seriózní statistické nástroje. Jaké případy morálního pokroku Pinker uvádí? Obrovskou redukci počtu vražd od středověku do současnosti (vezmeme-li v úvahu, tak jak bychom měli, enormní vzrůst světové populace v moderní době); masivní redukci otroctví, přinejmenším jeho nejbrutálnějších forem; redukci nejhorších projevů rasové a etnické diskriminace; postupný ústup od nejkrutějších trestů a mučení; vznik mezinárodních etických norem pro regulaci válek; rozšíření práv na politickou účast; postupné uznání a institucionalizaci rovných práv žen ve většině zemí, a někde i práv sexuálních menšin; zlepšování nakládání s různými druhy zvířat. Tyto příklady představují různé typy morálního pokroku: některé z nich dokládají zlepšující se schopnost řídit se stávajícími morálními normami („Nezabiješ“); jiné jsou důkazem naší morální invence, kdy vymýšlíme nové morální pojmy (např. lidská práva); další poskytují evidenci o zlepšujícím se morálním usuzování (stále více lidí je schopno pochopit, že barva pleti nebo pohlaví nemají hrát roli v úvaze, komu náleží morální ohled); jiné jsou výsledkem moralizace jednání, které bylo dřív považováno za přípustné (např. nekonsensuální sex nebo sexuální obtěžování v práci, fyzické tresty atd.), nebo naopak demoralizace jednání, které bývalo zakazováno jako morálně nepřípustné (např. půjčování peněz na úrok, předmanželský sex, stejnopohlavní sex atd.).

Považujme tedy uvedené změny za příklady morálního pokroku a připusťme, že statistické metody a kvantitativní zjištění, která shromáždil Pinker, jsou přesvědčivým důkazem, že morální pokrok existuje. Kritici poučení moderní evoluční vědou však argumentují, že i kdybychom do jisté byli schopni zlepšit své morální jednání k ostatním lidem, a dokonce i k příslušníkům jiných živočišných druhů, má toto zlepšování definitivní přirozené hranice. Tyto hranice jsou prý dány naším biologickým dědictvím. Evoluce nás vybavila k životu v malých skupinách, nadala nás jen omezeným altruismem a značnou krátkozrakostí při plánování našeho jednání. Jsme tudíž schopni brát ohledy především na své nejbližší; případně na další lidi, které známe; a konečně i na neznámé, ale přesto nám nějak podobné (náboženstvím, etnicitou atd.) jedince. Avšak jen v omezené a často nedostatečné míře bereme v úvahu i zájmy naprostých cizinců nebo lidí, s nimiž nikdy nepřijdeme do kontaktu. Někteří z autorů, kteří jsou v důsledku evoluční omezenosti našich morálních schopností skeptičtí vůči možnosti dalšího morálního pokroku, tvrdí, že jsme již nejspíš narazili na hranice svého přirozeného altruismu a nedokážeme se dále morálně zlepšovat. Neměli bychom si prý klást příliš ambiciózní cíle, protože nejsme psychologicky vybaveni k tomu, abychom je dokázali splnit. Další snahy v tomto směru jsou prý výrazem fanatického utopismu a snahy po dokonalosti.

Jenže do výše zmíněné kategorie lidí, s nimiž nikdy nepřijdeme do kontaktu, patří nejen jedinci vzdálení v prostoru, ale i v čase. Mám na mysli příslušníky budoucích generací, kteří se zatím ještě ani nenarodili. I tito lidé však budou mít určité legitimní zájmy a nároky – především základní nárok na život na obyvatelné planetě. Pokud však platí plauzibilní hypotéza, že jsme živočichové, které evoluce vybavila jen omezeným morálním smyslem, dostatečným pro život v malých tlupách na africké savaně, kde jsme jako druh strávili 98 % naší historie, pak se zdá, že jsme se jako druh ocitli ve velmi svízelné situaci. Spojí-li se evolučně podmíněný tribalismus, který nám brání připsat dostatečnou, pokud vůbec nějakou, morální relevanci dosud nenarozeným lidem, protože jsou nám vzdálení nejen v prostoru, ale i v čase, s naší omezenou schopností dohlédnout důsledky svého jednání, vypadá to, že nemáme na to, abychom řešili jeden z hlavních morálních problémů současnosti a blízké budoucnosti, totiž hrozbu katastrofické klimatické změny. Jak známo, klimatická změna je mnohými autory považována za jedno z existenčních rizik pro civilizaci tak, jak ji známe. Neschopnost efektivně čelit tomuto nebezpečí vyplývá právě z výše popsaných mezí našich morálních schopností: většina z nás nedokáže brát dostatečně vážně morální nárok příštích generací na obyvatelnou planetu, a kromě toho nedokážeme zvážit všechny neblahé důsledky našeho jednání pro budoucnost, protože negativní změny jsou po dlouhou dobu téměř neviditelné a začnout se kumulovat až později, kdy už bude pozdě.


Kognitivní a morální vylepšování

Na tuto morální prekérii je možné reagovat přinejmenším dvěma různými způsoby. Někteří filosofové, evoluční psychologové a antropologové tvrdí, že ačkoli platí základní hypotéza o evolučním původu morálky, neznamená to nutně, že morálka je natolik rigidní, že jejích charakter a meze byly zafixovány v ancestrálním prostředí africké savany před stovkami tisíců let, a že není schopna dalšího vývoje. Koneckonců rapidní morální pokrok, k němž došlo během uplynulých staletí, je důkazem plasticity lidské morálky. Rovněž bychom neměli morální jednání považovat jen za záležitost biologické evoluce, protože naše jednání zásadně utvářejí společenské instituce, které budujeme. Morálka a možnosti jejího dalšího vývoje tudíž závisejí i na kulturní evoluci. Takové komplexnější, „biokulturní“ pojetí evoluce naší morálky, která připouští další zlepšování, nabízejí například filosofové Allen Buchanan a Russell Powell ve své novější knize The Evolution of Moral Progress (Evoluce morálního pokroku). Je tedy možné, že skeptikové, kteří tvrdí, že jsme již vyčerpali náš přirozený potenciál morálně se zlepšovat, založili své přesvědčení na jednostranné nebo nekompletní představě o evoluci našeho druhu.

Ponechme však tento typ odpovědi skeptikům, jakkoli pravděpodobně může znít, stranou. Zaměřme se spíše na druhý způsob reakce na skepsi vůči možnosti dalšího morálního pokroku. Tato druhá reakce pochází od filosofů, kteří sdílejí se skeptiky výše popsané pojetí evoluce naší morálky, podle něhož jsme již možná narazili na přirozené meze našeho morálního zlepšování. Ale místo toho, aby tito filosofové vyvodili z této situace skeptický závěr, domnívají se, že své přirozené meze můžeme překročit s pomocí různých technologických prostředků. A nejen můžeme, ale musíme, pokud chceme mít na této planetě jakožto druh nějakou budoucnost. Tuto cestu ven z pasti našeho evolučního omezení doporučují například oxfordští filosofové Ingmar Persson a Julian Savulescu v knize Unfit for Future (Nezpůsobilí pro budoucnost). Donedávna se v tomto směru uvažovalo hlavně o různých biotechnologických prostředcích, jako je selekce vhodných genů, genetické inženýrství nebo aplikace určitých farmak, které by zlepšily naši schopnost morálního rozhodování prostřednictvím morálního nebo kognitivního vylepšení. Morálního vylepšení bychom mohli dosáhnout například zvýšením hladiny hormonu oxytocin, který snižuje agresivitu a zvyšuje pocity vzájemnosti. Kognitivního vylepšení bychom mohli dosáhnout genetickou modifikací, jejímž výsledkem by bylo zvýšení naší schopnosti rozhodovat se spíše na základě důvodů, než být v zajetí emocí; brát v úvahu všechny dotčené strany, a ne jen naše favority; a dohlédnout všechny možné důsledky, namísto obvyklé krátkozrakosti a tunelového vidění. Stojí za to upozornit, že skeptičtí kritikové morální pokroku razantně odmítají podobné biomedicínské intervence – zvláště pokud by tyto intervence měly být permanentní, jako v případě genetických modifikací. Přesto, nebo právě proto, že považují lidskou povahu za výsledek přirozeného vývoje, považují
za nepřípustné tuto povahu jakkoli modifikovat. 

AI a morální vylepšování

Nověji se však hovoří i o umělé inteligenci coby prostředku zlepšení naší schopnosti morálního rozhodování. Jak známo, pro mnohé laiky, ale i některé odborníky, je umělá inteligence spíše zdrojem obav. Nechci různé hrozby, o kterých se hovoří, podceňovat. Koneckonců, řada povolaných autorů z oborů jako informatika a považují hrozbu umělé inteligence, nepřizpůsobené lidským hodnotám (misaligned AI), za ještě významnější existenční riziko, než je výše zmíněná klimatická změna. Kritické posouzení takového rizika by bylo námětem pro jinou kapitolu. Já mám v úmyslu otázku hrozeb a rizik ponechat zcela stranou. Je třeba věnovat mnohem více pozornosti i způsobům, kterými umělá inteligence může naše životy zlepšit, ne je ohrozit či dokonce zničit. Avšak i v případech, kdy je řeč o pozitivním potenciálu umělé inteligence, zůstává diskuse většinou omezena na její schopnost učinit naše životy lepšími takříkajíc po materiální stránce. Jinými slovy, hovoří se o způsobech, jakými umělá inteligence dokáže zvýšit bohatství společnosti, zlepšit bezpečnost občanů atd. Zatím výjimečně se však diskutuje o tom, jak by umělá inteligence mohla případně učinit naše životy lepšími nejen po materiální stránce, ale i morálně. Jinými slovy, poměrně málo se zatím uvažuje o tom, jak by umělá inteligence mohla přispět k morálnímu pokroku. Ve zbytku této kapitoly představím jeden z návrhů v tomto směru. Jedná se o návrh již zmíněného britského morálního filosofa Juliana Savulesca, jenž se svým italským kolegou Albertem Giubillinim doporučuje využít umělé inteligence pro morální expertízu. Tímto způsobem by bylo možné přinejmenším částečně řešit problém omezenosti našich morálních schopností.

Naše morální schopnosti jsou omezené přinejmenším ve třech ohledech. Za prvé nejsme schopni vzít v úvahu všechny informace, kterých je pro kvalifikované morálního rozhodnutí třeba. Stěží kdy máme čas a schopnosti všechny potřebné informace získat, a i v případech, kdy je máme k dispozici si nemusíme uvědomit jejich relevanci. Za druhé jsme nedokonalými morálními soudci, protože náš soud bývá ovlivněn předsudky a pochybnými dojmy, jejichž neblahý vliv si ani neuvědomujeme. A není divu, neboť za řadu těchto předsudků a představ „vděčíme“ našemu evolučnímu původu, a tak se nám jeví přirozené. Za třetí, i v případech, kdy jsme schopni přijmout na základě relevantních informací morálně správné rozhodnutí, není zaručeno, že se dokážeme přimět v souladu s tímto správným rozhodnutím skutečně jednat. Hluboce zakořeněný egoismus, slabá vůle a různé fyziologické vlivy nás činí nespolehlivými morálními aktéry, navzdory sebelepším morálním předsevzetím.

Jedním z takových předsevzetí může být, že se budu chovat šetrněji k životnímu prostředí. Nebudu plýtvat potravinami, materiály a energií; například budu konzumovat potraviny, jejichž produkce neklade příliš velké nároky na životní prostředí, používat materiály, které se snadněji recyklují, a dám přednost obnovitelným zdrojům energie. Jenže které potraviny kladou menší nároky na životní prostředí? Obecně vím například to, že produkce masa je environmentálně mnohem náročnější než produkce rostlinných potravin, protože velké množství obilnin, které by mohli spotřebovávat přímo lidé, se používá k výkrmu hospodářských zvířat, určených na porážku. Ke kompetentnímu rozhodování o tom, které potraviny konzumovat, bych však potřeboval mnohem specifičtější informace o jejich původu, energetické náročnosti, dostupných alternativách atd. Podobně nedostatečné jsou moje znalosti o původu materiálů a nákladnosti výroby oblečení, které nosím, nebo o jeho recyklovatelnosti. Obecně platí, že nemám čas, znalosti a nástroje potřebné k tomu, abych si zjistil všechna relevantní fakta, potřebná ke kompetentnímu rozhodnutí. Zvláště pak nejsem s to dohlédnout dlouhodobé důsledky, která mají moje různá rozhodnutí – nemluvě o důsledcích, která by měla má alternativní rozhodnutí. Některé z těchto důsledků mohou být zvláště v dlouhodobém horizontu velice morálně závažné. V každodenním shonu však musím jednat rychle a často pod tlakem okolností. Pravděpodobnost, že se rozhodnu jednat způsobem, který nebude ve shodě s mým deklarovaným morálním princem, je tak velmi vysoká. Mou morální volbu mohou poškodit i podvědomé či instinktivní představy o tom, jak má vypadat zdravá a výživná strava – například mohu mít zábrany vůči pojídání hmyzu, takže to dopadne tak, že zavrhnu eticky nejoptimálnější volbu. A konečně, i když vezmu v úvahu všechna relevantní fakta a racionálně se přesvědčím o správnosti určitého rozhodnutí (změnit jídelníček ve směru lokálně vyrobené veganské stravy, nebo pořizovat oblečení z přírodních recyklovatelných materiálů), nedokážu se nakonec přimět podle tohoto rozhodnutí jednat, protože na mě klade vyšší nároky (časové, finanční a jiné).

Umělý morální rádce

Savulescu a Giubillini věří, že v této situaci by nám aspoň do určité míry mohl pomoci jejich „umělý morální rádce“. Takového rádce si můžeme představit jako software, který by nám byl schopen asistovat v případech, kdy si nejsme jisti jak konat, aby naše jednání bylo v souladu s určitými morálními principy, které jsme přijali za své. Tento software by měl být jistým typem umělé inteligence, která čerpá informace ze svého prostředí, zpracuje je podle zadaných operačních kritérií (v daném případě podle morálních kritérií, jakými jsou určité morální hodnoty, cíle a principy), a vygeneruje nejlepší morální doporučení. Tento software by tak pomohl optimalizovat naše morální usuzování, jež trpí omezeními, vyplývajícími z naší evoluční zátěže. Prakticky by se mohlo jednat o aplikaci podobnou těm, na které jsme již zvyklí – nejspíš mapujícím technologiím, jako je Google Maps, které nám na základě modelu prostředí, našeho místa v něm, a zadaných dotazů, poskytuje požadované informace (např. vybírá trasu k danému cíli, doporučuje restaurace v okolí atd.); nebo diagnostickým technologiím, jako je IBM Watson, které na základě přístupu k obrovskému množství diagnóz jiných pacientů dokáží ohodnotit symptomy a stanovit diagnózu či jiné doporučení pro nového pacienta. Funkce zmíněných aplikací lze tedy popsat následovně: (1) shromažďuje informace o prostředí;
(2) modeluje ho podle zadaných kritérií; (3) provádí zadaný úkol podle instrukcí; a (4) generuje výsledek.

„Umělý morální rádce“ by fungoval podobně. Ohled na životní prostředí je jednou z mých morálních priorit, kterou jako instrukci zadám svému „umělému morálnímu rádci“.Moje konzumní návyky, včetně toho, jaké  nakupuji potraviny, oblečení, či jakou dopravu používám – každý z těchto údajů má dalekosáhlé důsledky, které nejsem sám schopen zvážit, a informace o nich si obstarat. „Umělý morální rádce“ mi však může ve zlomku vteřiny poskytnout potřebná doporučení, protože má přístup k nepřebernému množství dat na internetu, podobně jako má Google Map přístup k modelu mého prostředí a diagnostický robot ke statisícům diagnóz. Mezi již zaužívanými typy umělé inteligence, jako jsou Google mapa a diagnostický robot, a zatím hypotetickým „umělým morálním rádcem“, je jeden podstatný rozdíl. Ty první poskytují faktické informace, tj. že věci se mají tak a tak. Umělý morální expert by dával morální rady. To znamená, že za předpokladu, že si přeji, aby věci byly tak a tak, doporučoval by mi, abych jednal tak a tak.

„Umělý morální rádce“ by tak určitě výrazně pomohl s prvním ze tří omezení, s nimiž se ve svém morálním rozhodování potýkáme, totiž s naší neschopností obstarat si včas relevantní informace. Jak jsem uvedl, všechny potřebné informace by byly dostupné prakticky okamžitě. Kromě toho nám však „umělý morální rádce“ může pomoci ochránit náš morální úsudek před mylnými dojmy a předsudky, jejichž vliv si často ani neuvědomujeme, protože jsou součástí našeho evolučního dědictví – tudíž se druhým ze zmíněných tří omezení. Umělá inteligence nemá biologický původ a tudíž netrpí tímto kognitivním deficitem. Giubilini a Savulescu v této souvislosti připomínají, že umělá inteligence, jež by mohlo asistovat v našich morálních rozhodnutích, splňuje v mnoha ohledech představu klasických filosofů o ideálním morálním soudci. Umělá inteligence je v první řadě nestranná, tj. neupřednostňuje zájmy žádného konkrétního aktéra ani skupiny aktérů. Dále je racionální, čili nepodléhající emocím, které lidské aktéry často svádějí na scestí. A je konzistentní, takže za předpokladu, že zjistí stejná fakta, vygeneruje ve shodě se stejným morálním kritériem stejný výsledek. Naopak my lidé jednáme často nekonzistentně, protože se necháme ovlivnit řadou nahodilých faktorů (a někdy si to ani neuvědomujeme). Giubilini a Savulescu kromě toho uvádějí jednu výhodu svého „umělého morálního rádce“ ve srovnání s dříve zmíněnými metodami kognitivního a morálního vylepšování. Farmakologické metody (léky, hormony apod.), nemluvě o genetickém inženýrství, jsou invazivní. Zasahují do naší přirozenosti, a někdy ji mají za cíl změnit trvale (manipulací fenotypu daného jedince, ne-li dokonce genotypu příštích generací). To je také hlavní důvod, proč konzervativní odpůrci vylepšování člověka tyto metody odmítají. Giubilini a Savulescu ale upozorňují, že tito kritici neodmítají cíl podobných zásahů – tj. aby se lidé stali navzájem přátelštějšími, štědřejšími, altruističtějšími, zkrátka morálně lepšími. Je-li shoda na žádoucnosti cíle, neměli by ani kritici vylepšování namítat nic proti nabízené alternativní metodě, totiž „umělému morálnímu rádci“, protože nijak nemodifikuje naši přirozenost. Je to vnější nástroj, který můžeme, ale nemusíme použít.

AI a slabá vůle

Zdá se, že v tom je však zároveň hlavní nedostatek „umělého morálního rádce“. Jde-li o nástroj, který nemá přímý vliv na naši morálně nedokonalou přirozenost, nemůžeme od něj patrně očekávat, že nám výrazně pomůže s problémem nedostatečné morální motivace. O tomto problému jsem se zmínil výše. Někdy máme k dispozice informace pro dosažení morálně správného rozhodnutí, dokonce se nám podaří k tomuto morálně správnému verdiktu dospět –, ale nedokážeme se už přimět k tomu, abychom ve shodě s tímto verdiktem jednali. Správný čin na nás klade příliš vysoké nároky, žádá po nás, abychom omezili své sobectví způsobem, který je neúnosný. Někdy však nastane situace, kdy správné jednání není spojeno s nijak vysokými náklady, a přesto jednáme jinak. Je to tak prostě jednodušší, nebo jsme tak zvyklí. Zdá se, že umělá inteligence nemůže v takové situaci pomoci, protože prostě nebudeme na její rady dbát.

Avšak možná, že schopnost umělé inteligence vyřešit, či alespoň zmírnit problém slabé vůči a nedostatečné morální motivace, poněkud podceňujeme. Třeba umělá inteligence i v tomto směru skýtá jistou naději. Když jednáme samostatně, bez asistence nějakého morálního experta, je relativně snadné zavrhnout vlastní morální soud a přesvědčit sám sebe, že ve skutečnosti není ten správný. Kvůli sobectví nebo prachobyčejné lenosti hodíme za hlavu morální rozhodnutí, k němuž jsme dospěli, a omluvíme svou neschopnost jednat správně tím, že jsme třeba nevzali v úvahu nějaká fakta, která by náš soud pozměnila. Nebo sami sebe přesvědčíme, že naše špatné jednání ve skutečnosti nemá onu závažnost, kterou jsme mu původně přisuzovali. A jedná-li se o situaci, kdy se rozhodneme proti svému lepšímu úsudku takříkajíc ve skrytu srdce (nebo ve své hlavě), takže zde není nikdo druhý, kdo by nám naše selhání připomněl a vyčetl, je relativně snadné selhat. Avšak představme si, že jsme si zvykli využívat rad „umělého morálního rádce“ – umělého experta ve věcech morálky, který je nestranný, bez emocí a neúprosně konzistentní. Dejme tomu, že jsme si zvykli řídit se jeho radami již dlouhá léta, nebo celý život. Abych se přiznal, v daném případě hodně spoléhám na to, že se na podobných expertních systémech staneme závislými, jako jsme již závislí na jiných druzích umělé inteligence, kterých využíváme v našich každodenních rozhodnutích. Ne všechny druhy závislosti jsou totiž nežádoucí. Giubilini a Savulescu správně upozorňují, že konzervativní kritici se obávají změny lidské přirozenosti prostřednictvím nových technologií, ale tito kritici přece varují i před naší závislostí na používání těchto technologiích. Na rozdíl od Giubiliniho a Savulesca si tudíž nemyslím, že konzervativní kritici vylepšování člověka budou o mnoho vstřícnější vůči představě umělého morálního experta, než vůči hormonální léčbě či manipulaci genetického kódu. Já se domnívám, že je potřeba odmítnout samu představu techniky, včetně umělé inteligence, jako čehosi cizího a neslučitelného s lidstvím, o kterém se předpokládá, že ho příliš intimní a stálý kontakt s technikou může pouze poškodit. Jistě, ne všechny technické vymoženosti nám musejí prospívat, ale tyto věci je potřeba posuzovat případ od případu. Konkrétně představa umělého morálního experta, na jehož asistenci bychom se stali závislými, a jehož verdikt by nám kromě jiného připomínal závažnost našich morálních selhání, se mi jeví jednoznačně pozitivní. Na rozdíl od závislosti na jiných technologiích, které ovlivňují naši přirozenost, jako jsou počítačové hry, pornografie, nebo drogy, by nám závislost na hlasu nestranného, emocí zbaveného a konzistentního umělého morálního rádce umožnila konfrontovat vlastní slabost a výmluvy – a alespoň v některých případech tyto slabosti a výmluvy překonávat.

Závěr

Morální pokrok existuje, ale lidstvo stojí před tak důležitými výzvami (klimatická změna), že ho akutně potřebuje urychlit. Kromě jiných technologických řešení se v této souvislosti nabízí i umělá inteligence. S touto technologií jsou zajisté spojena i rizika, která není radno podceňovat. Zároveň by ale bylo chybou podléhat tolik rozšířené technofobii. Umělá inteligence by se kromě jiného mohla stát naším morálním rádcem, který nám aspoň do určité míry mohl pomoci překonat naše sobectví a jednat v zájmu druhých, včetně těch dosud nenarozených.

Literatura

Buchanan, A., Powell, R.,  The Evolution of Moral Progress: A Biocultural Theory. New York: Oxford University Press, 2018.
Giubillini, A., Savulescu, J., The Artificial Moral Advisor. The “Ideal Observer” Meets Artificial Intelligence. Philosophy of Technology 2017, 31(2), s. 169-188.
Persson, I., Savulescu, J. Unfit for the Future: The Need for Moral Enhancement. Oxford: Oxford University Press., 2012.
Pinker, S. Lepší andělé: Proč ubývá násilí. Přel. Zuzana Gabajová. Praha: Academia, 2023.

---

Původně vyšlo v Proč se nebát umělé inteligence. Jota, Praha 2024. Autoři knihy Proč se nebát umělé inteligence? nabízejí střízlivý a odborně podložený pohled na současný stav a perspektivy umělé inteligence (AI). Čtenář se ve srozumitelné podobě dozví, na jakých technologických základech AI stojí, jaká je její historie a jak probíhá zpracování přirozené řeči ve velkých jazykových modelech. Kniha rovněž ukazuje, jak aplikace AI už dnes slouží v průmyslu, zdravotnictví, robotice či v oblasti kybernetické bezpečnosti a jak konkrétně je možné AI využít například ve státní správě či ve službách. Řada příspěvků je věnována filozofickým úvahám o roli a možnostech umělých strojů, etice a právu při jejich využívání.

Report je ke stažení zde.