Ministr Jan Lipavský
Foto: © MZV ČR / MFA CZ

Komentář ministra zahraničí Jana Lipavského - Umělá inteligence přináší nové výzvy pro diplomacii. První kroky jsme už zahájili

 

Vyšlo na webu Forum24.cz

„Šéf neziskové organizace pro výzkum umělé inteligence byl odvolán a o čtyři dny později opět navrácen do funkce.“ Ještě před pár lety by taková událost zaujala maximálně publikum specializovaného časopisu o počítačích. Dnes už plní titulky největších deníků všude po světě. „Objev, který může ohrozit lidstvo,“ hlásal jeden z nich.

Čím to? Umělá inteligence už totiž dávno není v plenkách. Vývoj, který vědci v této oblasti dokázali za posledních šest měsíců, je mnohem rychlejší, než který zvládli za posledních deset let. Nejnovější chatboty dnes zvládají mnohem více než jen banální konverzaci o počasí. Řada univerzit kvůli vývoji umělé inteligence mění pravidla pro závěrečné hodnocení studentů, protože prostě nenašla způsob, jakým ověřit, zda závěrečnou práci psal člověk, nebo robot. Společnost se bude muset takové změně přizpůsobit. Reagovat na tyto trendy musíme i my, česká diplomacie. První kroky jsme už zahájili.

V centru digitálního světa musí zůstat člověk a lidské zájmy

Před několika dny se nám na půdě OSN podařilo prosadit rezoluci k ochraně a prosazování lidských práv v kontextu digitálních technologií. Jádrem této rezoluce je apel, abychom na ochranu lidských práv dbali jak v hmotném světě, tak v digitálním prostředí. Svět jedniček a nul totiž není zónou mimo platnost mezinárodního práva. I zde musíme respektovat lidská práva a dbát na demokratické hodnoty. V centru digitálního světa také musí zůstat člověk a lidské zájmy a cíle.

Obsah rezoluce se netýká jen prostředí internetu, řeší také ochranu lidských práv ve vztahu k novým technologiím, jako je umělá inteligence. Je bezpochyby, že nasazení těchto technologií do našeho každodenního života může mnohé zjednodušit a zlepšit. Umělá inteligence nám může pomoci s vyhledáváním relevantních informací, zkvalitní lékařské služby, pomůže zefektivnit procesy v logistice nebo ve výrobě. 

Domnívám se také, že nám nové technologie v mnoha ohledech mohou pomoci k rozšiřování nebo prosazování lidských práv a svobod. Pokročilé překladače na bázi umělé inteligence nám pomáhají bořit dosavadní jazykové bariéry. Na jednom z panelů letošního Fóra 2000 se například diskutovalo o potenciálu velkých jazykových modelů pro ty, kdo hledají přístup k necenzurovaným informacím.

Odvrácená tvář nasazování nových technologií

Využívání a nasazování nových technologií ale může mít i odvrácenou tvář. Ne všechny důsledky těchto změn jsou navíc dostatečně prozkoumané. Některé zatím ani nedokážeme předvídat.

Někteří z vás už na internetu narazili na falešné obrázky nebo videa zpracované umělou inteligencí. Už dnes existují technologie schopné věrohodně napodobit hlas cizí osoby. Pravost takového obsahu je někdy nemožné na první pohled ověřit. Takzvaná deep fake videa slouží jako nebezpečný nástroj vlivového působení nebo neférových politických kampaní. Dochází tak k hrubému porušování soukromí a co víc, k porušování práv všech, kdo si nepřejí být účelově manipulováni. 

S velkou opatrností bychom také měli přistupovat k technologiím, které dokáží snímat a vyhodnocovat lidské emoce, řeč těla nebo fyziologické reakce člověka na podněty. S jejich nasazováním se otevírá velký prostor pro zneužití, ať už za účelem klamavé reklamy nebo s cílem politické manipulace, zvýšení kontroly a dohledu ze strany autoritářských režimů. Čína a jiné nedemokratické státy využívají, či dokonce zneužívají nové technologie včetně umělé inteligence ke kontrole svých obyvatel a závažně tak pošlapávají jejich práva. Možná jste už slyšeli o čínských systémech sociálního kreditu, které vyhodnocují skóre nebo udávají kredibilitu jednotlivci za jeho činy a chování. Nepodaří-li se vám dosáhnout kýženého skóre, může vám být udělen trest – například odepřen přístup k určitým službám.

V neposlední řadě také nesmíme tolerovat, aby výstupy generované umělou inteligencí posilovaly nebo přispívaly k reprodukci nerovností ve společnosti. Je-li umělá inteligence trénována na datových souborech, které nejsou vyvážené, odrazí se to i v jejích výstupech, které budou také nevyvážené. Z tohoto důvodu je důležitý důraz na transparentnost a odpovědnou kontrolu, od samotného návrhu systému a datových souborů, na kterých je umělá inteligence trénována, až po kontrolu jejích výstupů.

Řada úkolů pro českou diplomacii

A co to všechno znamená pro diplomacii? Mnohá rizika, o kterých jsem hovořil, jsou ze své podstaty mezinárodní povahy, neomezují se na hranice jediného státu. Proto je třeba je řešit prostřednictvím mezinárodní spolupráce. Prvním krokem by měla být účinná regulace. S účinnou regulací by měl být spojen i funkční systém mezinárodní kontroly, včetně možného uplatnění sankcí na subjekty, které pravidla porušují. 

Posun v tomto směru přináší návrh Aktu EU k umělé inteligenci, což je vůbec první pokus o regulaci umělé inteligence na světě. Možný rámec pro takovou regulaci se řeší i na dalších platformách, včetně OECD. Česko do těchto jednání aktivně vstupuje. 

K dalším aktivitám v tomto směru dochází i na půdě OSN, kde letos vzniká poradní orgán generálního tajemníka k umělé inteligenci. Česko do tohoto orgánu nominovalo svého zástupce, předního odborníka na umělou inteligenci profesora Michala Pěchoučka. Ve finálním výběru bohužel neuspěl, ale do podobných iniciativ se budeme aktivně zapojovat i nadále, abychom příště uspěli.

S vývojem nových technologií musíme držet krok. Pro naši diplomacii z toho vyplývá celá řada úkolů. Propagovat české inovace ve světě, podporovat naše vědce nebo posilovat strategická spojenectví s klíčovými partnery. Chceme, aby si naši partneři pod pojmem „Česko“ konečně představili moderní zemi zajímavou pro investory. Nedávno se mě jeden novinář zeptal, jak bych popsal smysl diplomacie. Jednoduše řečeno, je to práce na zajištění existence a suverenity státu. Nyní je potřeba dodat, že takový úkol můžeme jen těžko zaručit bez závazných pravidel platných i pro digitální prostředí.

.