Najlepšie technologické mozgy tejto mozgy planéty neustále pracujú na tom, aby vám zničili život. Požívajú pri tom super drahé a ultra vyspelé IT technológie, proti ktorým jedného dňa nebudete mať šancu. Nie je to ich zámer. Nechcú vám ublížiť. Je to len smutný dôsledok ich akcií. Nedeľník TOUCHIT vážne i nevážne. Nezviazané IT témy na tisíc spôsobov.

Zoznámte sa s Petrom. Je to mladý aktívny muž, možno podobný ako vy. Športoval, bavil sa, zaujímal sa o technológie ako koníček. Po nečakanej smrti svojho otca, ktorý mu bol celý život oporou, však upadol do depresie.

Nevedel čo má robiť. Všetko na neho doľahlo. Behom celého procesu narazil na YouTube na nejaké konšpiračné video a po kliknutí naň sa dostal na mnohé ďalšie a ďalšie. Odhalenie týchto obrovských celosvetových spolčení na neho pôsobilo ako katalyzátor. Otvorilo mu oči. Nič iné ho už nezaujíma. Nepracuje, nestretáva sa s priateľmi, nechce už viac ani počuť o tom, že jeho manželka chce deti. Bojí sa všetkého a neustále sa cíti ohrozený. Je nahnevaný na celý svet.

V súčasnosti väčšinu svojho času trávi pozeraním videí na YouTube. Žije z peňazí svojej manželky a nemôže odtrhnúť oči od displeja. Aký to nešťastný vývin celej situácie. Z pohľadu jeho rodiny a priateľov ide nepochybne o tragický príbeh, ktorý láme srdce. Ale z pohľadu umelej inteligencie YouTube, je to všetko zásah do čierneho. Z jej pohľadu, je Peter ozajstný jackpot…

SPRÁVANIE, KTORÉ MUSÍ BYŤ REPRODUKOVANÉ

Peter nie je vymyslený. Ide o priateľa bývalého zamestnanca Googlu, Guillaume Chaslota, ktorý pracoval na vývoji umelej inteligencie odporúčacích mechanizmov služby YouTube. Tieto technológie, podobne ako je tomu u iných on-line služieb, sú cielene navrhnuté tak, aby maximalizoval čas, ktorý ľudia na konkrétnej stránke alebo službe strávia.

Čím dlhšie na službe ste, tým viac reklám si pozriete. Pre umelú inteligenciu je Peter ideálny návštevník. Jeho správanie je niečo, čo by malo byť čo najviac reprodukované. Neurónová sieť tak analyzuje veci, čo k nemu viedli. Zistí, aké videá ho najviac nalákali a v akom poradí a použije tento model na iných osobách. Ak sa sprvu netrafí, modifikuje svoj postup tak, aby bola úspešnejšia. Ako získava signály a prekliky od čoraz viac ľudí, selektuje obsah, s ktorým má najväčší úspech. Limit neexistuje. Pozeranie viac videí je vždy dobré. Ich obsah je irelevantný.

Denne do takejto čiernej diery spadne obrovské množstvo ľudí. Systém je cielene a úmyselne navrhnutý tak, aby takýchto hyper aktívnych používateľov získal a „vyrobil“ čo najviac. Ich počet nemá strop. Systém nikdy nemá dosť a chce ich získať stále viac a viac.

V roku 2012 sa vývojový tím Googlu v blogovom príspevku rozpísal o tom, ako tieto algoritmy zavádza a prečo mu na nich záleží. Vývojári a manažéri si boli vedomí, že ľudia strávia na ich službe 4 miliardy hodín mesačne (v tej dobe), ale v porovnaní s TV, ktorá sa v bežnej domácnosti sleduje niekoľko hodín denne, to bolo stále málo.

Aby Google túto situáciu zmenil a YouTube sa stal najväčším zdrojom video obsahu v životoch ľudí, pristúpil k zmene stratégie. Pôvodný model, v ktorom si všímal kliky na konkrétne videá, zmenil pozornosť na zotrvanie na službe.

Pred rokom 2012 si algoritmy Googlu všímali hlavne to, na ktoré video ľudia klikli. Čím viac ľudí konkrétne video otvorilo, tým viac bolo odporúčané iným, ktorí ho ešte nevideli. Mnoho tvorcov si to všimlo a táto éra sa stala typická tým, že sa mnoho obsahu snažilo zaujať prehnaným názvom, alebo obrázkom náhľadu v podobe ženského výstrihu, ktorý sa v samotnom videu ani nevyskytoval.

Po roku 2012 si algoritmy toto prakticky prestali všímať a zamerali sa hlavne na následnú ľudskú reakciu. Pozreli ste si video celé? Na aké video ste hneď následne klikli a na aké potom? A hlavne, na KOĽKO potom? Ak vás dnes nejaké video zaujme, prehráte si ho a následne stránku YouTube zatvoríte, z pohľadu algoritmu YouTube šlo o neúspech.

Pre odporúčací algoritmus a systém umelej inteligencie analyzujúci interakciu je irelevantné, že pre vás video bolo poučné. Že vás informačne obohatilo a zlepšilo vám život. Je jedno, koľko práce do neho autor vložil a ako veľmi sa vám páčilo. Klikli ste na ďalšie video a následne ste na YouTube strávili niekoľko hodín? Nie? Hneď ste odišli preč? Tak potom to video nestálo za nič a neoplatí sa ho odporúčať iným.

Stratégia, ktorú Google po roku 2012 pre svoje algoritmy zvolil, je kryštálovo jasná. Ak diváci sledujú YouTube viac, je to signál, že sú šťastnejší a spokojnejší s obsahom, ktorý sa im ponúka. A toto sa stalo métou, na ktoré sa neurónové siete a iné systémy začali trénovať.

NIE JE OBSAH AKO OBSAH

Od tej doby neurónové siete ušli obrovský kus cesty. Spresnili sa tak, že pôvodné systémy oproti tým dnešným pôsobia ako predpotopná technológia. Ich vplyv je nepochybne aj pozitívny, čo spoznáte zakaždým, keď vám odporučia naozaj niečo zaujímavé a návštevu YouTube si vskutku užívate.

V základe by sa mohlo zdať, že tento mechanizmus bude fungovať rovnako dobre s každým obsahom. Ak napríklad začnete pozerať videá z rôznych súťaží, ako Voice (Hlas) z rôznych kútov sveta, alebo „Got Talelent“ (Krajina X má talent), algoritmus vám bude posúvať stále nový a podobný obsah ako na bežiacom páse.

Vo výsledku tak môžete dostať dojem, že sú univerzálne, neškodné a skrátka sa vás len snažia nalákať na obsah, o ktorý máte záujem. Lenže neurónové siete rýchlo zistili, že nie všetok obsah si je rovný.

Určité témy majú totiž vyššiu mieru „zahákovania“ diváka, ako iné, pričom u niektorých je účinnosť mimoriadna. Nie je absolútne žiadna náhoda, že máte pocit, že mnoho konšpiračných teórií a to aj tých najabsurdnejších, ako pomätený nápad o plochej Zemi, nabralo v posledných rokoch na sile a prominentnosti. Nedá sa to odbiť mávnutím ruky, v štýle, že je to skrátka dôsledok internetu, sociálnych sietí a všeobecne éry informácií. Je to priamy dôsledok odporúčacích algoritmov.

Bývalý vývojár YouTube, Guillaume Chaslot (vyššie), si už pred dvoma rokmi všimol, že videá o plochej Zemi sú algoritmicky uprednostňované umelou inteligenciou aj 10× viac, ako iný obsah podobného typu, vrátane reakčných videí, ktoré tieto bludy vyvracajú.

Neurónové siete po čase skrátka rozpoznali, že konšpiračný obsah a zároveň takisto obsah založený na hneve, má výrazný úspech na udržaní diváka. Ak niečo z duše nenávidíte a svoj hnev živíte pozeraním videí, ktoré váš hnev držia pri živote, pre algoritmus YouTube ste ako zlatá žila. Je extrémne jednoduché udržať vašu dlhodobú pozornosť správnym podsúvaním obsahu tohto typu.

Vôbec pri tom nezáleží na tom, že zdroj vášho hnevu je z globálneho hľadiska len raritná záležitosť. Ak sledujete videá, kde niekto päsťami alebo slovnými argumentmi uzemňuje či vyškoľuje nejakú skupinu, politických či iných oponentov, je jedno, koľko týchto ľudí alebo situácií vlastne je.

Z hľadiska celého sveta a počtu ľudí môže ísť o bezvýznamný jav, na úrovní menšej ako je 1 %, či dokonca len niekoľkých promile (pády lietadiel, zločinnosť nejakej etnickej skupiny v konkrétnej krajine a podobne), avšak stále sú to len vaše oči a váš 24 hodinový deň, verzus celý svet. Aj keď je teda obsahu relatívne málo a je pomerne raritný, z vášho pohľadu je ho nekonečné množstvo. Nikdy sa neminie.

Stále bude chodiť nový a nový, či už reálny alebo vykonštruovaný a vám stále bude len vrieť krv v žilách. „Ako sa toto môže diať?“, zakričíte si pred displejom. „Niekto musí niečo urobiť!“ Nuž a z vašej strany je obvykle to „niečo“ niekoľko hodinové sledovanie podobných videí, ktoré vám YouTube servíruje ako na bežiacom páse.

Systémy YouTube a podobných služieb pracujú s masívnym množstvom obsahu a používateľov, pričom si môžu začať všímať interakcie a súvislosti, o ktorých my sami ani nemáme potuchy.

Pre neurónovú sieť s dostatkom dát nemusí byť absolútne žiadny problém zistiť, aká postupnosť video obsahu má najväčší predpoklad na vytvorenie reťazca dlhodobého pozerania a kedy je na ktoré prekliky človek náchylnejší.

Ako v partii šachu vás teda môže dostať najprv len do správnej mentálnej pozície. Ak si pozeráte vzdelávacie video o tom, ako funguje letecký motor, zrejme by algoritmus u vás nepochodil s následným odkazom na video nejakého pomätenca, ktorý rozpráva o chemtrails a práškovaní obyvateľstva lietadlami za účelom ovplyvňovania myslenia.

Lenže neurónová sieť sa môže naučiť, že je napríklad schodná táto reťaz:  video o leteckom motore -> video o škandále leteckého výrobcu -> video o korupcii pri nákupe vládnych lietadiel -> odhalenie zatajenia výrobnej chyby konkrétneho lietadla -> konšpiračné video o chemtrails.

Takisto sa môže poľahky naučiť, že negatívne reťazce majú dlhšiu udržateľnosť diváka, ako pozitívne. Typicky, ako niekto sleduje politické video o nelegálnych prisťahovalcoch alebo o vojnových utečencoch, prečo by mu mal algoritmus následne ponúkať pozitívne video, ukazujúce, ako prisťahovalec vo Francúzku vyliezol na balkón na štvrtom poschodí paneláku, aby zachránil visiace dieťa. Ak zistí, že po pozretí takéhoto videa následne ľudia len (s dobrým pocitom) z YouTube odídu, je to odporúčanie zlé!

Z jej pohľadu je omnoho lepšia stratégia to, že sa po politickom videu odporučia negatívne videá týkajúce sa nejakého znásilnenia, alebo lúpeže v miestnych potravinách, za ktorými stál prisťahovalec, pretože je omnoho vyššia pravdepodobnosť, že sa ľudia chytia do reťazca ďalších videí.

Je teda jasné, že použije tie. Tu si je treba uvedomiť, že toto rozhodnutie dosiahne umelá inteligencia nevedome. Algoritmus nepreferuje konkrétny video obsah, pretože s ním súhlasí, alebo sa mu páči. Preferuje ho len zo štatistického hľadiska, pretože pre neho znamená posun k jeho cieľu. Cieľu udržať vás na stránke.

Tak ako v prípade, kedy algoritmus hrá šach alebo hru go, skrátka len pozná postupnosť ťahov v určitých situáciách, ktoré zvyšujú pravdepodobnosť iných ťahov. Zvolí tak takú postupnosť odporúčania videí, ktorá má najväčšiu úspešnosť. Systém umelej inteligencie nevie, o čom je daný obsah naozaj.

Z jeho pohľadu to môže mať podobu:  ak niekto sleduje video 0549, je 50 % šanca, že ak mu ponúknem video 4329, pozrie si aj to a následne bude 65 % šanca, že si pozrie aj 5381. To, že za tými „účinnými“ a na udržanie pozornosti efektívnymi videami je problematický obsah z hľadiska ľudstva a našej spoločnosti je pre algoritmus irelevantné. Nemá v sebe nič, čo by to dokázalo posúdiť. Dôležité je len to, že používateľ neodchádza a kliká ďalej.

NEBEZPEČNÝ RADIKALIZAČNÝ KAMEŇ, KTORÝ SA KOTÚĽA VŽDY DOLE KOPCOM

Postupnosť odporúčacích reťazcov, ktoré neurónové siete a algoritmy umelej inteligencie odhaľujú v návale veľkého množstva dát, má v posledných rokoch aj veľmi negatívny efekt s radikalizáciou názorov mnohých ľudí.

Na toto nebezpečenstvo nedávno upozornila v New York Times napríklad aj Zeynep Tufekci, profesorka informačných vied na univerzite v Severnej Karolíne. Tá si v roku 2016 všimla, že keď si počas prezidentskej kampane v roku 2016 pustila kvôli citáciám niekoľko videí z politických rely Donalda Trumpa, YouTube algoritmy jej veľmi rýchlo začali odporúčať videá od popieračov holokaustu, podporovateľov nadradenosti bielej rasy a iného znepokojujúceho obsahu.

Keďže si chcela potvrdiť, či je to záležitosť pravicovej politiky, založila si nový účet, kde začala naopak pozerať výhradne politické videá z opačnej strany politického spektra, pričom netrvalo dlho a algoritmy YouTube začali takisto odporúčať rôzny konšpiračný obsah, či už v súvislosti teroristickým útokom z 11. septembra 2001, alebo vládnymi spolčeniami.

Ako náhle skrátka začnete na YouTube sledovať významný politický obsah vo veľkej miere, algoritmy vás budú posúvať čoraz ďalej od základného názorového prúdu smerom k jeho extrémnym okrajom.

Netýka sa to ale len politického obsahu. Tento efekt, pripomínajúci kameň kotúľajúci sa dole kopcom, môžete vidieť na mnohých témach. Ak začnete sledovať videá o rekreačnom behaní, onedlho sa budú odporúčať videá o odbehnutí maratónu. Ak začnete sledovať videá o vegetariánstve, onedlho sa začnú ponúkať videá o veganstve.

Ako Zeynep Tufekci pekne zhrnula, pre algoritmy YouTube váš záber záujmov nikdy nie je dostatočne hardcore. Vždy sa dá ponúknuť ešte viac hardcore obsah, pričom asi netreba pripomínať, ako extrémne negatívne tento trend pôsobí v súvislosti s konšpiračnými videami a extrémizmom.

YouTube, ktorý má dnes viac ako 1 miliardu používateľov, tak označila za najviac efektívny radikalizačný nástroj 21. storočia. A toto všetko je jeho interná funkcionalita, ktorá nebola zámerne do neho vložená. Je len dôsledkom aktuálnych trendov odporúčacích algoritmov a systémov umelej inteligencie, ktoré sa snažia diváka udržať pri sledovaní stoj čo stoj. Všimli si totiž, že efekt kameňa kotúľajúceho sa dolu kopcom je najefektívnejšia stratégia.

Ponúkajú tak stále viac obsahu, ktorý je stále viac a viac extrémnejší vo svojej povahe, v porovnaní s tým predchádzajúcim. Funguje to všade. V dobrom i zlom. Ak vás práve nadchlo video, ako niekto hrá na 15 strunovú gitaru, následne sa takmer určite ponúkne také, kde niekto hrá na 20 strunovú. Šanca na to, že si ho pozriete takisto je totiž veľmi veľká. Ak hľadáte videá s informáciami o vakcínach proti chrípke, ponuka konšpiračných anti-vakcinačných videí bude čoraz viac vyskakovať pred oči.

Cesta hore kopcom, pri ktorom by vám algoritmus ponúkal čoraz kvalitnejšie videá, pre čoraz väčších expertov, je obvykle neefektívna. Ponúkať kvalitné edukačné video a následne ísť ešte k odbornejšiemu, ktorému porozumejú len tí, ktorí v danej oblasti majú prehľad a následne potom k takému, ktoré pochopia už len experti, je cesta s narastajúcou zložitosťou. Pri každom kroku je pravdepodobnosť odchodu používateľa čoraz väčšia a väčšia.

Opačná cesta konšpiračným smerom, ktorá naopak vyžaduje od diváka čoraz menšiu kognitívnu záťaž, čoraz menej znalosti, ale za to mu ponúka čoraz väčšie globálne odhalenia o tom „ako všetko funguje“, je skrátka lepšia stratégia. Z kopca sa ide vždy ľahšie, ako do kopca.

DÁ SA TENTO EFEKT VÔBEC ZASTAVIŤ?

Od roku 2012, kedy ľudia na YouTube sledovali 4 miliardy hodín mesačne, sme sa za necelých sedem rokov posunuli ku stavu, pri ktorom pozeráme 1 miliardu hodín denne.

Odporúčacie algoritmy a neurónové siete na tom majú nemalý podiel, nakoľko na YouTube generujú až 70 % všetkých prehratí. Povaha týchto mechanizmov a spôsob, akým odporúčania robia, však má na spoločnosť negatívny efekt.

Radikalizácia a cielené vyvolávanie závislosti je problém, s ktorým dnes návštevníci týchto služieb často nevedomky bojujú. Nie je preto až tak zvláštne, že tento boj často prehrajú. Algoritmy a systémy umelej inteligencie sa totiž trénujú hlavne na interakcii extrémne aktívnych používateľov, ktorí javia prvky závislosti, pretože to je cielený stav, aký chcú tieto systémy dosiahnuť. Snažia sa ho teda reprodukovať u iných návštevníkov, na základe odpozorovaných interakcií u závislých ľudí a podľa toho, čo u nich závislosť vyvolalo.

Chaslot to pekne zhrnul v jednoduchom návode:

1) Ľudia, ktorí trávia celý svoj deň na YouTube, ovplyvňujú algoritmus odporučení najviac
2) Obsah ktorí pozerajú, naberá na význame a uprednostňuje sa viac
3) Tvorcovia videí si to všimnú a vytvárajú takýto obsah viac
4) Ľudia trávia viac času jeho pozeraním
5) Návrat k bodu 1

Obrovské množstvo dát a používateľských vstupov, s ktorými tieto systémy pracujú, umožňuje budovanie extrémne presných psychologických profilov rôznych typov ľudí a skupín. Vaše konkrétne správanie môže byť porovnané so správaním tisícov či miliónov podobných ľudí a systém tak časom môže byť veľmi presný v určovaní toho, čo u ľudí vyvolá z jeho pohľadu „správnu“ reakciu a ako sa k nej dostať.

Celá situácia, je s každým dňom strašidelnejšia. A najhoršie na tom je, že dôvod, prečo sa to deje, je tak úbohý a primitívny. Asi najlepšie to vystihol vývojár Jeff Hammerbacher, bývalá hlava dátového týmu Facebooku, ktorý povedal, že tým najtragickejším faktom Silicon Valley je to, že „dnes sa tie najlepšie mozgy planéty zaoberajú tým, ako ľudí prinútiť vidieť viac reklamy“.

Mechanizmy YouTube sa zo všetkých síl snažia, aby ste na YouTube trávili čo najviac času. O to isté sa snažia neurónové siete a odporúčacie mechanizmy Netflixu, Facebooku a ďalších služieb. Všetci chcú čoraz viac a nikdy nebudú mať dosť.

A bojovať s nimi bude pre ľudí čoraz ťažie. Nestojíte tu totiž proti tímu pár desiatok ľudí, ako kedysi u klasickej TV. Stojíte tu proti čoraz lepším a lepším systémom umelej inteligencie, ktoré sa trénujú na dátach stoviek miliónov ľudí, 24 hodín denne, 365 dní do roka.

Z pohľadu „samoregulácie“ trhu je celá situácia veľmi problematická. Predstavte si míting vlastníkov internetovej firmy, na ktorom niekto povie: „ľudia trávia na našej službe stále viac a viac času a zarábajú nám stále viac a viac peňazí. Myslím, že by sme to mali zastaviť, pretože už zarábame príliš veľa.“ Asi by ho všetci vysmiali, že áno?

Obzvlášť ak firma vôbec nemusí na svojom produkte zarábať veľa a mohla sa pred nedávnom len tak-tak vyhrabať zo startupového dlhu. To je koniec koncov aj prípad YouTube, ktorého náklady na prevádzku sú astronomické a ešte donedávna bol pre Google stratovou záležitosťou.

Upraviť systém umelej inteligencie úmyselne tak, aby bol pre firmu menej ziskový a menej efektívny nie je malá požiadavka. Iskrička nádeje však existuje. Pred pár týždňami urobil Google v tomto smere historické oznámenie, v rámci ktorého sa zaviazal, že konšpiračné videá sa bude snažiť v odporúčacích reťazcoch čo najviac potláčať.

Videá na službe zostanú, ale ich viditeľnosť sa formou odporúčaní zmenší, čo je v priamom kontraste s dnešným stavom, kedy sú odporúčané výrazne viac ako iný, často relevantnejší a vhodnejší obsah (ale nie tak zahákovací, takže z pohľadu YouTube je horší).

Podpora stále radikálnejších záujmov a závislosti je nesmierne nagatívny jav. Nejde tu len o prípady jedincov, ako napríklad Buckeyho Wolfa, 26 ročného muža zo Seatllu , ktorý minulý mesiac dobodal svojho brata, pretože si myslel, že je to vesmírny jašter (tu si môžete pozrieť, aké konšpiračné videá mal daný muž v obľube a aké za posledné mesiace lajkoval). Omnoho horšie sú hnutia, ako napríklad tie v súvislosti s odporom k očkovaniu, ktoré začali po celom svete spôsobovať nové prepuknutia dávno potlačených chorôb.

Umelá inteligencia, ktorej cieľom je vyvolanie závislosti alebo vedenie vás za ručičku k stále viac radikálnejším názorom veru nie je nič, na čo sa dobre pozerá. Takto ste si asi nebezpečenstvo UI doposiaľ nepredstavovali. Žiadni roboti, žiadne zlé umelé vedomie. Len nekonečný zástup hnoja, pašovaný do vašich hláv čo najúčinnejšie ako je to len možné.

Lebo čo je doma, to sa počíta.

Nedeľník TOUCHIT hľadajte na našom webe ako inak než v nedeľu. Ak ste predchádzajúce zmeškali, nájdete ich všetky pod rovnomenným kľúčovým slovom.

František Urban

František Urban
Zameriavam sa najmä na prehľadové a analytické články z oblasti najrôznejších technológií a ich vývoja. Nájdete ma takisto pri diagnostike HW a SW problémov.