Měla by umělá inteligence sloužit, nebo vychovávat?

10. 5. 2017 – 19:02 | Technologie | Jan Toman | Diskuze:

Měla by umělá inteligence sloužit, nebo vychovávat?
Ilustrační snímek | zdroj: ThinkStock

Řada věcí, které se před pár desítkami let zdály jako sci-fi, pomalu proniká do našeho každodenního života. Jen v poněkud odlišné formě, než si představovali režiséři původního Star Treku, nebo věhlasní spisovatelé. Nelétáme sice na Mars, natož za hranice sluneční soustavy, zato každý nosíme v kapse počítač – chytrý telefon – výkonnější, než byly všechny podobné stroje za druhé světové války dohromady. Stejně tak nám u plotny neslouží lidem podobní roboti. Různé metody strojového učení a aplikace umělé inteligence se však bouřlivě rozvíjejí a radikálně mění prostředí na internetu.

Před pár měsíci začal nejpopulárnější internetový překladač od společnosti Google využívat pokročilé metody strojového učení prostřednictvím neuronových sítí. Texty nyní nepřekládá podle pevně daných zákonitostí, ani podobnosti slovních spojení v různých jazycích, ale prostřednictvím "vlastnoručně" naučených pravidel zohledňujících bližší i vzdálenější kontext slov ve větě.

Tento krok logicky vedl ke zlepšení překladu zejména delších textů, nejviditelněji v jazycích, ke kterým je na internetu dostupných nejvíce záznamů. Na kvalitní strojové překlady prózy a poezie si sice ještě musíme počkat – a kdoví, do jaké míry jich kdy strojová inteligence bude schopna – čitelné jsou ale záhy i překlady textů normální povahy, nikoli pouze formalizované zápisy typu technických manuálů.

Zcela nedávno byla mimochodem tato metoda zavedena i pro překlady do a z českého jazyka, takže si ji může vyzkoušet každý. Problematika překladu je přitom tradičně považována za jeden z nejobtížnějších pro strojové učení dostupných oborů – v bezpočtu dalších aplikací je postupně zaváděno zcela neviditelně.

…a jsou stejné, jako my

Strojové učení ani umělé inteligence ale nikdy nevisí ve vzduchoprázdnu. Vždy se musí učit z lidské zkušenosti – ať už textových záznamů, obrázků, zdokumentovaných reakcí, nebo jiného typu informace. Představa, že nám "uprostřed počítače" vznikne jakési nové, na člověku zcela nezávislé vědomí, se ukazuje značně naivní. Aplikace strojového učení a umělé inteligence se stávají jakousi prodlouženou rukou lidské kultury – rychlejší, výkonnější a spolehlivější, ale nesoucí všechny aspekty naší vlastní zkušenosti.

Zcela konkrétně se o tom nedávno přesvědčili autoři chatovacího "robota" Tay z amerického Microsoftu. Poté, co program vyslali "na zkušenou" na sociální sítě, nevrátila se jim polobožská, s člověkem už ani kvůli nedostatku podnětů nekomunikující, bytost, ani antický filosof, ale autor přisprostlých a rasistických poznámek.

Právě tuto zkušenost si museli připomenout američtí a britští autoři nedávného článku ve vědeckém časopisu Nature, kteří zdokumentovali, že strojové učení plně zachovává předsudky přítomné v jazyce. Zároveň tak oživili diskusi na téma, do jaké míry jsou předsudky od jazyka neoddělitelné a jak vlastně jazyk ovlivňuje kulturu a kultura jazyk.

Stereotypy jsou nedílnou součástí jazyka

Autoři studie analyzovali určitá slova v anglickém jazyce s cílem vyjádřit jejich zakotvení v jazyce – souhrn všech možných závislostí a kontextů, ve kterých se vyskytují – jednou veličinou.  Pod složitým konceptem se skrývá celkem jednoduchá věc. Každý výraz se ve větě vyskytuje v závislosti na jiných slovech.

Některá slova, například "hmyz", nebo "pavouk", jsou častěji vázána na negativní výrazy typu "nepříjemný" či "děsivý", jiná, například "květiny" bývají častěji spojena se slovy "příjemný" či "potěšující".

Podobný kontrast můžeme identifikovat také u dvojice slov "hudební nástroje" a "zbraně", ale i mnoha dalších. Přesně ty samé rozdíly už dříve potvrdil i psychologický test implicitních asociací, při kterém mají účastníci daným výrazům přiřazovat určité protějšky – účastníci spojují dvojice slov, které k sobě v jejich podvědomí spíše náleží, daleko rychleji než dvojice, které si odporují.

Potud se všechno zdá bez problémů. Než si ale uvědomíme, že se do zakotvení slov promítají i široce sdílené předsudky v tom kterém jazyce. Typicky bělošská americká jména jsou v angličtině přednostně spojena s kladnými výrazy, typicky černošská s negativními. Ženská jména bývají častěji spojená s výrazy vztahujícími se k umění, péči o rodinu a domácnost, mužská spíše s kariérou, vědou a matematikou. To se přitom může promítat skrze aplikace strojového učení třeba do volby překladu určitého výrazu, nebo výběru určitého kandidáta na zaměstnání.

(Ne)řešitelný problém?

Co s tím? Někteří autoři navrhují podobné "nedostatky" ošetřit už při samotném strojovém učení. Pokud ale umělé inteligenci "zakážeme", aby se něco naučila, přijdeme tím o podstatnou část informace, kterou v přirozeném jazyce dané slovo nese. Jeden příklad za všechny: Výrazy jako "zdravotní sestra", nebo "porodní bába" jsou tak úzce spojeny s ženskými jmény a ženským pohlavím obecně, že se jejich mužská obdoba takřka nepoužívá. Vypuštěním této informace tak přijdeme o podstatnou část toho, jak dané slovo normálně chápeme.

To je navíc jen ten nejpovrchnější problém. Prakticky totiž nelze rozlišit, do jaké míry jsou stereotypy užitečné a umožňují nám lepší orientaci ve světě – a jedná se tedy o jakési zkratky, které by mohl využít i program – a do jaké míry jsou iracionální. Ba co hůř, nemáme ani šanci odlišit, jaké vazby mezi slovy jsou vlastně "předsudečné", a jaké vyplývají z objektivní zkušenosti našich předků.

Ani dávná objektivní zkušenost navíc není žádnou zárukou dnešní užitečnosti, protože může být zastaralá a dnes zcela zavádějící. Vymezení toho, co je nežádoucí stereotyp, navíc závisí na momentálně uznávaných hodnotách, které se stále mění. Už dříve bylo například dokázáno, že se výrazy spojené s homosexualitou pomalu, ale stabilně přesouvají z oblasti negativních konotací k neutrálním a pozitivním. Zkrátka, hrne se na nás celá hora problémů.

Vyřeší problém růžové brýle?

Alternativní metodou by mohly být jakési "brýle", které umělé inteligenci při výkonu její funkce nasadíme. Explicitně můžeme programu například zakázat rozlišování ženské nebo mužské inklinace u překladů určitých spojení, nebo nastavit poměr přijatých uchazečů obou pohlaví 50:50. Jednalo by se vlastně o přístup podobný „pozitivní diskriminaci“, nebo kvótám na zaměstnávání uchazečů určitých charakteristik.

Problémy, které by daný přístup vyvolal, jsou ale bohužel až příliš povědomé. Pokud má určité slovo v jazyce určité konotace, měl by nás program "vychovávat" a nabízet nám sice korektní, ale neobvyklé a málo používané varianty překladu, nebo nám spíše "posloužit", třeba i za cenu toho, že bude dané spojení tvrdě předsudečné? Odpověď není vůbec jednoduchá. V prvním případě překlad obecně ohodnotíme jako méně kvalitní, v druhém případě nás utvrdí v předsudcích. Ještě vážnější dilema může nastat u nabídky zaměstnání.

Žádné z uvedených řešení se zkrátka nezdá ideální. Možná by nás to ale vůbec nemělo překvapovat. Programy založené na umělé inteligenci, které se učí na základě našich textů a zkušeností, musí takřka zákonitě dopadnout tak, že budou jako my – se všemi světlými i temnými stránkami. Naše problémy za nás nevyřeší. Mohou na ně ale upozornit a pomoci nám je pochopit. Stejně jako nám mohou leccos napovědět o základech našeho uvažování, nebo vzniku a proměnách předsudků či evoluci jazyka.

Zdroj:

Caliskan A, Bryson JJ & Narayanan A (2017): Semantics derived automatically from language corpora contain human-like biases. Science 356.

Greenwald AG (2017): An AI stereotype catcher. Science 356.


Zdroje:
Vlastní

Nejnovější články