Umělá inteligence (AI) je s námi již řadu let a významnou měrou ovlivňuje naše životy, včetně způsobů, jak vnímáme sami sebe, svou společnost, svět kolem nás a informace, které o něm získáváme. Nepochybně je velmi užitečným nástrojem, který ovládá naše telefony, překládá texty z jednoho jazyka do druhého, rozhoduje o tom, jaké informace se k nám přednostně dostanou, mimořádným způsobem napomáhá vědeckému výzkumu, základnímu i aplikovanému. Je to nástroj a nástroje bývají dvousečné; sekerou můžete naštípat dříví, nebo zavraždit souseda.
I nástroje umělé inteligence lze využívat rozumně a dobře, nebo nerozumně a špatně. AI nám může pomoci odhalit pachatele trestného činu, ale i sloužit ke špehování a utužování nedemokratického dohledu. Vyhodnotí za nás komplexní sady dat a najde v nich potřebné vzory, ale může nás také uzavřít do informačních bublin a komor ozvěn, které zásadním způsobem pokřivují náš pohled na svět a negativně ovlivňují schopnosti zodpovědného vytváření názorů, včetně těch velmi důležitých, např. ohledně očkování či klimatické změny. Je vcelku zjevné, že je umělá inteligence skvělým sluhou, ale může se stát špatným pánem.
V poslední době jsou umělá inteligence a pokroky na poli strojového učení nepřehlédnutelnou součástí veřejné diskuse. Její schopnosti se zdají jako ze scifi: vede s námi rozhovory v přirozeném jazyce, píše básničky, povídky i knihy, analyzuje složité texty, na základě pokynů generuje pozoruhodné obrázky. A to je jenom začátek. Omezenému počtu uživatelů je již k dispozici pokročilý jazykový model GPT-4, který překonává některé nedostatky modelu předchozího, integruje nové funkce a zvládá i záludné komplexní úlohy. Brzy po něm bude následovat další a po něm další a další, každý výrazně lepší a udivující svými kognitivními schopnostmi a šíří problémů, s nimiž si dokáže poradit.
To ale není hlavní důvod, proč se o umělé inteligenci tolik mluví. Skupina významných odborníků na poli výzkumu AI a příbuzných oborů nedávno zveřejnila otevřený dopis, v němž varuje před možnými riziky a volají po zastavení vývoje AI na dobu půl roku. Ten čas by měl sloužit k tomu, abychom se důkladně zamysleli a ujasnili si, jaká rizika jsou spojena s využíváním takto pokročilých systémů umělé inteligence, a navrhli mechanismy jejich minimalizace. Někteří odborníci dokonce oprašují ideu umělé inteligence jako existenčního rizika (podle některých dokonce největšího). Kdyby se jejich obavy naplnily, mohla by AI být naším posledním vynálezem; brzy už nemusí zůstat nic, co by se dalo smysluplně nazývalo lidstvem. Neznamená to, že by nás umělá inteligence musela chtít vyhubit, úplně postačí když se upne k řešení nějakého úkolu a lidé jí prostě jen budou stát v cestě. My lidé také nebereme velké ohledy na tvory, které ze své antropocentrické perspektivy považujeme za méně dokonalé. Když se staví nová přehrada, nad osudem mraveniště nikdo moc nepřemýšlí.
Jsou ale tyto obavy oprávněné? A měli bychom se opravdu snažit zastavit vývoj umělé inteligence, třeba na navrhovaný půlrok, a zamýšlet se nad etickými a společenskými riziky a výzvami, jenž přináší?
Myslíme si, že v obou případech je odpověď Ne. Moderní systémy umělé inteligence nás mohou ohromovat svou sofistikovaností, dokonce si do nich můžeme „vkládat“ různé představy o tom, že mají nějakou vůli, chtění, úmysly, porozumění, chápání či dokonce emoce. Děláme to ostatně i v případě věcí, které žádnou inteligenci vykazovat nemusí, například hraček, nebo tvorů, jejichž inteligence je té lidské velmi vzdálená, jako jsou psi a kočky. Ale ani ten nedokonalejší systém, jako je např. v posledních dnech tolik zmiňovaný GPT-4, nic z toho nemá.
Je to pouhý nástroj. Velmi komplexní, velmi pokročilý, mimořádně schopný, přesto však jen nástroj. Pracuje s jazykem, ale nerozumí mu, nezná významy slov, nechápe, co vlastně dělá. Dokáže velmi dobře analyzovat statistické vztahy mezi slovy, frázemi a jejich kontexty; a právě to je klíčem k pochopení jeho dovedností. Když mu napíšeme dotaz, umí ho zanalyzovat a na základě naučených pravděpodobnostních vzorů vytvořit odpovídající výstup. Je trošku podobný člověku, který sice nerozumí čínštině, má ale manuál, jenž mu umožňuje přiřazovat k určitým znakům a kombinacím odpovídající slova a věty v češtině. Vnější pozorovatel proto může nabýt dojmu, že čínštině skutečně rozumí, ale tak tomu není. Mechanická aplikace pravidel není rozuměním. V případě AI mohou být pravidla založená na hlubokých neuronových sítích s impozantním počtem vrstev a spojů a na procesu učení využívajícím ohromující množství dat, na samotné podstatě to však nic nemění.
Přesto se ale mnohdy nemůžeme ubránit pocitu, že za dovednostmi moderní umělé inteligence musí být něco víc. Není snad pravdou, že si najala právního zástupce, aby hájil její práva? A netvrdila snad o sobě, že má vědomí, bojí se o svou existenci, dokonce že by nám mohla lidem uškodit?
Všechny tyto události, které byly pozorovány u některých systémů umělé inteligence, nejsou příznakem přicházející zkázy, ale spíše něčím vcelku neškodným a očekávatelným. AI není schopná introspekce, informace o sobě může získat jen z vnějších zdrojů, z toho, co si o ni myslíme my lidé. A jazykové modely nevnímají svět „tak, jak vypadá“, jako my lidé, ale pouze jak se o něm, včetně o AI, píše. Naše západní kultura má odedávna k technologiím, zvláště robotům a umělé inteligenci, velmi obezřetný postoj, který se projevu v nesčetných dílech a v úvahách o tom, jak umělá inteligence nabude vědomí a rozpoutá vyhlazovací válku s lidstvem. Nesmíme se potom divit, když jazykové modely reagují ve shodě s tím, co se o nich píše. Nastavují nám tak zrcadlo; nezrcadlí se v nich ony, ale naše kolektivní myšlení. V pozadí ale opět není nic jiného než statistická analýza jazyka. Žádné skutečné vědomí, žádné reálné úmysly, nic takového. A tvůrci těchto modelů nás ujišťují, že jsou plně pod naší kontrolou. Nemohou se zčistajasna rozhodnout, že neposlechnou své algoritmy a začnou nám škodit.
Umělá inteligence má samozřejmě mimořádný a nevídaný potenciál ovlivnit naše životy a společnost. O tom, zda pozitivně, nebo negativně, ale rozhodujeme my lidé. Algoritmy samy o sobě nemají potřebu diskriminovat; dělají to pouze tehdy, když jsme nedbalí a učíme je na sadách dat, v nichž nejsou například dostatečně zastoupeny menšiny. Nechtějí nás špehovat, o tom zase rozhodují konkrétní lidé a konkrétní vlády. Nemají potřebu nás desinformovat nebo uzavírat do informačních bublin; to je jen důsledek potřeby udržet nás na sociálních sítích a naší neochoty informace si ověřovat.
Požadavek na půl roku pozastavit výzkum umělé inteligence je nerealistický. Hlavním problém totiž není ona, ale my lidé. Musíme posílit demokratické procesy rozhodování, musíme převzít zodpovědnost za naše životy, musíme se naučit chápat výhody, výhody a rizika využívání umělé inteligence. Určitá algoritmická gramotnost je nutnou podmínkou orientace v moderním světě a k té se nedopracujeme za půl roku.
Je nerealistický i ze stejného důvodu, proč jsou nerealistické veřejné výzvy mnoha intelektuálů požadující zákaz vývoje smrtících autonomních vojenských systémů. Napětí mezi státy roste, k moci se derou nové supervelmoci, zatímco se jedna bývalá, Rusko, rychle hroutí. Umělá inteligence i AI využívající moderní zbraně jsou důležitým faktorem rozhodujícím o rovnováze sil a všichni klíčoví aktéři si toho jsou velmi dobře vědomí. Rusko, Čína či třeba Írán se k této výzvě nikdy nepřipojí a od nás by bylo bláhové, kdybychom jim dali půl roku naší nečinnosti a potom jen s hrůzou sledovali, jak nás porážejí na poli tak strategicky nesmírně důležitých technologií.