Terminátor číhá v samoobsluze

Tay was an artificial intelligence chatter bot that was originally released by Microsoft Corporation via Twitter on March 23, 2016; it caused subsequent controversy when the bot began to post inflammatory and offensive tweets through its Twitter account, causing Microsoft to shut down the service only 16 hours after its launch.[1] According to Microsoft, this was caused by trolls who "attacked" the service as the bot made replies based on its interactions with people on Twitter.[2] It was soon replaced with Zo.

Odpusťte mi to klišé, ale lidstvo pravděpodobně stojí na prahu technologické revoluce srovnatelné s vynálezem parního stroje a tranzistoru. Vstupujeme do věku umělé inteligence. Tento přerod v mnohých z nás vzbuzuje nejistotu, obavy i čirou hrůzu. Terminátor vyobrazuje scénář, ve kterém se umělá inteligence Skynet rozhodla bránit vlastní existenci genocidou lidstva. Pro stroje ovládající „skutečný svět” v Matrixu je naším největším přínosem metabolismus. Replikanti v Blade Runnerovi odporem vůči zotročení skutečnými lidmi naplňují vizi svých tvůrců: lidštější než člověk.

Pod vlivem těchto filmů a nespočtu dalších děl je snadné podlehnout představě, že nebezpečí spojená s umělou inteligencí začínají a končí vytvořením umělého člověka, jehož rozhodnutí jsou v rozporu s našimi zájmy. Jedná se však o iluzi. Umělá inteligence přináší velmi konkrétní nebezpečí už ve své současné podobě. Hlavním důvodem je, že prohlubuje existující negativní jevy ve společnosti.

Roboti všedního dne

Nejprve musíme ze vzletného pojmu umělá inteligence setřást jeho tajemnou auru. Oxford English Dictionary ji definuje jako „teorii a vývoj počítačových systémů, které zvládají úkoly obvykle vyžadující lidskou inteligenci, jako je vizuální vnímání, rozpoznávání řeči, rozhodování a jazykový překlad“. Klíčovým slůvkem je zde „obvykle“. Pod umělou inteligenci patří jakkoliv sofistikované algoritmy, které zasahují do oblastí dříve vyhrazených člověku.

Mnoho z nich se stalo každodenní součástí našich životů se šokující rychlostí. Výsledky internetového vyhledávání jsou řazeny umělou inteligencí na základě shody s významem hledaného výrazu a sociální sítě vyzdvihují novinové články, o kterých tuší, že nás více zaujmou. Letenky zakoupené v centru New York City mohou stát skoro dvakrát tolik, kolik byste platili z počítače připojeného v Kolumbii.1 Internetové obchodní domy jako Amazon řazením vyhledávaných položek ovlivňují výdělky jednotlivých obchodníků. Algoritmy s velmi omezeným polem působnosti tak mohou mít velmi přímý vliv na lidské životy.

Ruku v ruce s tím přichází otázka férovosti. Proč se Amazon rozhodl ve vyhledávání zařadit můj produkt až na druhou stránku? Protože ho porovnal s alternativami dvaceti dalších obchodů a ten můj mu přišel méně kvalitní či výhodný? Nebo snad proto, že jsem minulý týden tweetnul ostrý vtip o Jeffu Bezosovi? Druhá možnost působí poněkud trpčeji. To ukazuje, že koncept řazení je sám o sobě morálně neutrální; jeho konkrétní kritéria však mohou být neférová a neetická.

AI tě vidí

Dobrým příkladem rozšířeného a zároveň eticky sporného využití umělé inteligence je automatické rozpoznávání tváří z bezpečnostních kamer. Jeho přínos je zřejmý: policie mnohem rychleji a snadněji nalezne hledané osoby a potenciálně zamezí budoucím zločinům. Právě tato technologie se ale v posledních letech střetává s odporem aktivistů i týmů právníků. Ti poukazují na několik vážných problémů. Vycházejí přitom z dalšího obecného principu: vše, co může, se dříve nebo později pokazí. A proto nezáleží jen na tom, co nám chytré kamery mohou přinést (např. efektivnější policii), ale i jak nám mohou nechtěně uškodit.

Zaprvé, tyto systémy vůbec nemusí sloužit dobré věci. V principu dokáží identifikovat kohokoliv z nás, sledovat náš pohyb napříč městy a nic než přísné zákony nezaručí, že tato data nebudou použita proti nám. Příkladem nám budiž jeden takřka dystopický incident z čínského Su-čou. Tamní policie zveřejnila fotku, jméno a číslo občanky místního obyvatele, který se provinil vůči veřejnému pořádku… venkovní procházkou v pyžamu.2 Místo chudáka v pohodlném oděvu byla ale nakonec nejvíc zostuzena policie, kterou reakce veřejnosti donutila k omluvě.

I přes dobrý konec zde lze najít potenciál pro mnohem děsivější případy. Možná jste na sociálních sítích viděli a potažmo sdíleli příspěvky o hledaných osobách. V několika zdokumentovaných případech však měly tyto příspěvky skrytý účel: nalézt oběť domácího násilí, která utekla svému trýzniteli, a ten se ji sdílením příspěvku pokusil získat zpět.3 V blízké budoucnosti může sociální sítě nahradit mnohem efektivnější síť inteligentních kamer. Současné telefonní aplikace umí identifikovat sexuální pracovnice a proti jejich vůli vyzradit jejich zaměstnání rodinám a přátelům.4

Umělá inteligence není barvoslepá

Přímé zneužití je však jen jedním ze způsobů, jak může nekritické přijetí umělé inteligence poškodit společnost. Kromě toho může též prohloubit existující společenské nerovnosti. Obchodní domy patří mezi časté odběratele chytrých kamer, protože pro ně mohou plnit mnoho funkcí od sledování popularity obchodu přes kontrolu zaplněnosti regálů až po identifikaci známých zlodějů v reálném čase. A právě zde číhají největší etická úskalí.

Nedávná studie zjistila, že kamerové systémy jsou vcelku přesné; ovšem pouze pokud jste bílý muž. 5 Jejich chybovost pak nepřekračuje 1 %. Pro černošské ženy se ale pohybuje kolem 30 %.6 Ve výsledku bude kamerový systém častěji identifikovat černošské zákaznice jako potenciální zlodějky. Bezpočet Afroameričanů zažilo, že je ihned po vstupu do obchodu začala mezi regály sledovat místní ochranka. Zde je důkaz našeho pokroku: podařilo se nám zautomatizovat rasistického sekuriťáka. Z jistého úhlu pohledu jsme dokonce posunuli rasismus na vyšší úroveň. Naše kultura si totiž často spojuje technologii s konceptem objektivity či s absencí emocí, zatímco rasismus je pro ni výrazem emočního selhání jednotlivců. Chytré kamery, vnímané tímto rámcem, tedy na rozdíl od sekuriťáka nemohou být rasistické, protože jsou přeci objektivní!

Selhání jsou často zajímavější než úspěchy – proč kamery identifikují bělochy mnohem přesněji než černochy? Důvodů je celá řada. Dějiny fotografie jsou dějinami bělošské fotografie7 a i současné kamery mohou být nakalibrované na světlejší odstíny pleti. Dalším faktorem mohou být nevyvážené datasety: pokud programu ukážete široké spektrum bílých tváří, ale menší množství černých, naučí se lépe rozpoznávat bělochy. V neposlední řadě se zde odráží nedostatek diverzity mezi samotnými tvůrci kamerových systémů: pokud by vykazovaly takto špatné výsledky na bílých mužích, pak by problém zachytili sami vývojáři, protože by systém špatně fungoval na velké části z nich. To opět dokazuje, že koncept rozpoznávání tváří není sám o sobě rasistický, ale jeho implementace může být – a v mnoha případech je.

Trocha optimismu na závěr

Automatické rozpoznávání tváří potřebuje ještě pár let zrát. Prozatím nám poslouží především jako příklad současných nebezpečí umělé inteligence: bezprecedentních zásahů do soukromí a „objektivizace“ společenských nerovností. Oba aspekty je těžké zcela odstranit, ale jejich dopad můžeme omezit jak pokračujícím technologickým výzkumem, tak tím, že budeme v otázkách technologie vzdělávat naše zákonodárce. Pokrok bude vyžadovat právníky zběhlé ve strojovém učení i informatiky s nadstandardním sociologickým přehledem. Tato mince má ale i druhou stranu: každý problém je zároveň výzvou a pole umělé inteligence, její etiky a práv jsou dnes otevřenější a dynamičtější než kdy předtím. Watch this space nebo se přidejte! Každá hlava se bude hodit.


Doporučení na čtení:

https://www.goodreads.com/book/show/28186015-weapons-of-math-destruction

https://www.insideprivacy.com/artificial-intelligence/uk-ico-and-the-turing-issue-draft-guidance-on-explaining-decisions-made-by-ai/


1 https://www.huffpost.com/entry/use-a-fake-location-to-ge_b_6315424

2 https://www.bbc.co.uk/news/world-asia-china-51188669

3 https://www.reddit.com/r/quityourbullshit/comments/9sin17/domestic_abuser_tries_to_track_her_missing_husband/

4 https://www.news.com.au/technology/online/social/russian-social-media-users-use-facial-recognition-app-to-dox-and-harass-porn-stars/news-story/61e9ee6863f18cf318807cd3dd108a64

5 http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf

6 Velmi podobnému problému nedávno čelila i londýnská policie, jejíž pilotní program měl 81% chybovost měřenou jinou, ale stále relevantní metrikou. “Chybovost” mimochodem není jednoznačně definovaný termín. Doporučuji vždy zkontrolovat, co autoři jednotlivých studií myslí.

7 https://www.nytimes.com/2019/04/25/lens/sarah-lewis-racial-bias-photography.html
Pro představu, jak velký rozdíl v zachycení tmavé kůže udělá dobře nakalibrovaná kamera, vřele doporučuju zhlédnout Moonlight.

About Dominik Miketa

Dominik Miketa zkoumá strojové učení pro Anthropics Technology. Vystudoval matematiku, fyziku a filosofii na univerzitách v Oxfordu a Cambridge a dokončuje doktorát z teoretické fyziky na Imperial College London. Dva roky byl koordinátorem Letní akademie Discover.

Napsat komentář

Vaše emailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *