AI a strojové učenie sú pojmy, o ktorých budeme počuť napríklad aj v súvislosti s fake news alebo podvodmi.

Firmy ale aj používatelia sa budú musieť naučiť využívať tieto technológie. Kým z pohľadu používateľa to nebude až tak problematické alebo kritické, niekto tieto nástroje bude musieť naprogramovať.

eset eeml 2023 kosiceZdroj: ESET

Letná škola strojového učenia v Košiciach

Tým, že sa otvárajú úplne nové možnosti, je dôležité, aby aj firmy ako napríklad programátori alebo špecialisti na oblasť umelej inteligencie mali dostatok znalostí o tejto problematike. Jedným z takýchto projektov, kde si odborníci a študenti môžu vymieňať svoje znalosti, je aj Východoeurópska letná škola strojového učenia (EEML 2023), ktorej ročník sa tento raz koná v Košiciach. Hlavnou pointou je zdieľanie znalostí a oboznámenie sa aj s technológiami, ktoré využívajú firmy alebo startupy.

Spomenúť môžeme napríklad laboratórium DeepMind v Londýne, ktoré sa venuje hlavne hlbokému učeniu. Prednášajúci na tejto letnej škole sa sú považovaní za kapacity v oblasti výskumu a umelej inteligencie. Vystúpi tu 27 popredných odborníkov z 20 rôznych inštitúcií či firiem z celého sveta. Preberané budú témy ako hlboké učenie, strojové videnie, spracovanie prirodzeného jazyka, etika v strojovom učení či aplikácie strojového učenia v medicíne alebo robotike.

„Umelá inteligencia je téma, ktorá čoraz viac rezonuje nielen v odborných kruhoch, ale aj v spoločnosti. Sme radi, že Košice sa stali centrom celosvetovej debaty o fenoméne, ktorý nám v mnohých smeroch uľahčí život, ale taktiež prinesie výzvy. Obsadenie prednášajúcich ukazuje, že región strednej a východnej Európy, a špecificky aj Slovensko, dokáže produkovať v IT oblasti medzinárodne rešpektovaných odborníkov. O to dôležitejšie je, aby sa tí najlepší podelili o svoje skúsenosti s mladými talentmi. Letná škola poskytuje priestor na takúto výmenu a veríme, že prispeje k formovaniu nápadov, ktoré pomôžu meniť svet k lepšiemu,“ uviedol Juraj Malcho, technologický riaditeľ spoločnosti ESET.

Fenomén ChatGPT

ChatGPT je z pohľadu ľudí skutočne fascinujúca záležitosť. Odrazu je tu umelá inteligencia, ktorá nám rozumie. Na pohľad sa to tak javí, no nástroje ako Machine Learning a Artifical Intellingence tu máme už viac ako 10 rokov. Mechanizmy a princípy týchto oblastí využíva aj ESET vo svojich aplikáciách a nástrojoch dátovej analýzy.

Dnes si totiž nevieme predstaviť ani len medicínu alebo finančníctvo bez ML. Je to ale oblasť, ktorá nie je používateľom až tak blízka. Ak sa totiž používa AI alebo ML či jeho mechanizmy v oblasti ako sú financie, na pohľad to nie je až tak viditeľné. Používatelia zadajú vstupné dáta a vyjdú im z toho iné dáta. Toto nie je až tak zrozumiteľné pre bežného človeka ako napríklad četovať si priamo s nejakým robotom, ktorého jazyková výbava už aj v Slovenčine prekonáva bežného človeka.

Avšak z pohľadu skladby dát, tu konkrétne slov, ide len o vhodné pre usporiadanie slov do jazyka, ktorému bude človek rozumieť a budú mu dávať zmysel. Na toto sú aktuálne nástroje trénované. Antivírusová firma ale takto fungovať nemôže, pretože analýza kódu, ktorý sa môže ukázať ako škodlivý alebo ako neškodný, nie je postavený na jasne daných pravidlách. Dá sa ale identifikovať na základe anomálií.

V medicínskej oblasti sú takéto nástroje zastúpené napríklad pri analýze rakovinotvorných buniek alebo kožných znamienok a na základe obrovského množstva dát stroj jednoduchšie a v častých prípadoch aj presnejšie posúdi, či ide o rizikové znamienko alebo nie. Stále je tu potrebný rozhodujúci faktor a tým je človek, konkrétne lekár alebo odborník v danej oblasti. Nie, táto skupina o prácu nepríde.

Kto príde o prácu?

Tým sa dostávame k aktuálnej téme a tou je apokalypsa v podobe prevzatia nadvlády nad ľuďmi umelou inteligenciou. Takéto niečo sa opakuje periodicky, hoci nie vždy sa to volalo umelá inteligencia. Kedysi to boli stroje, ktoré vytvárali priemyselnú revolúciu a ľudia sa búrili. Namiesto koňov dnes ľudia ovládajú špecializované stavebné stroje alebo mechanizmy.

Žiadna apokalypsa sa nestala, ale scenár bol veľmi podobný. Samozrejme o prácu môžu prísť niektoré profesie alebo niektoré špecializácie, podobne ako to bolo v minulosti. Je zrejmé, že dnes strojové učenie a analýza hlasu dokáže urobiť veľmi presný prepis hovoreného slova. V budúcnosti možno nebude vyžadovaná profesia, ako napríklad zapisovateľ na súde, pretože umelá inteligencia dokáže v reálnom čase prepisovať texty v neskrátenom formáte pre všetkých zúčastnených.

Názory odborníkov z rôznych kruhov pohybujúcich sa v oblasti tejto problematiky sa nezhodnú. Je to pochopiteľné a máme tu minimálne dva tábory. Jedni tvrdia, že umelá inteligencia zažije nástup v priebehu najbližších rokov. Iní zase tvrdia, že sa toho nemusíme obávať ani o 15 rokov.

Manuálne vyradenie a cenzúra obsahu

Nech už budeme mať rôzne nástroje, ktoré budú pracovať automaticky a budú to v mnohých prípadoch robiť lepšie ako človek. Stále je potrebné mať jasný spôsob, ako sa budú dať vyradiť a prevziať manuálna kontrola ľudským faktorom.

Umelá inteligencia sa používa už dlhšie, a to napríklad nielen na analýzu škodlivých kódov alebo spomínaných odvetviach, ale aj v analýze rôznych dezinformácií. Tiež napríklad príspevkov, ktoré nie sú na sociálnej sieti povolené. V minulosti to bolo možno príliš jednoduché. Na základe vopred definovaných slov, kedy sa napríklad nemohli v komentároch používať urážlivé slová alebo nadávky, toto až taký problém nebol. Avšak problém, ktorý môže nastať je cenzurovanie. Či už máte na túto tému taký či onaký pohľad, cenzúra bude v budúcnosti problémom.

To, čo je v našom prípade žiaduce cenzurovať a na čom je takpovediac spoločenská zhoda, nemusí v inej krajine byť pochopené. Sú krajiny, kde je cenzúra silnejšia alebo slabšia, prípadne majú iné kultúrne alebo právne zvyklosti. Nedá sa teda jednoznačne určiť, aké údaje majú byť priechodné a aké nie. Navyše nie vo svete internetu a ani nie z pohľadu firiem.

Zatiaľ je praktického pohľadu pomerne nepredstaviteľné, aby firmy, ktoré sa budú starať o kontrolu obsahu alebo spôsob, ktorý obsah môže byť publikovaný. Rozlišovanie na základe geografickej polohy bude čoraz viac aktuálna téma, aspoň tomu napovedajú rôzne smernice v USA a EÚ, napríklad o fyzickom uchovávaní dát v konkrétnej jurisdikcii.

Podvody a riziká

Podľa technologického riaditeľa ESETu Juraja Malcha bude veľkou výzvou a analyzovanie podvodov, ktoré budú vznikať na základe generovania umelou inteligenciou. Už dnes existujú nástroje, ktoré odhalia texty vygenerované niektorým z četovacích nástrojov alebo takto nakreslené obrázky. Okrem toho je tu aj snaha zregulovať novo vytvárané obdobie, čo naráža na odpor v odborných kruhoch. Na jednu stranu sa mnohí búria, že nás Únia znevýhodní oproti iným krajinám a štátom v technologickom rozvoji.

Argumentuje sa tým, že neumožní, slobodnejšie a voľnejšie rozvíjanie tejto nastupujúcej technológie V budúcnosti bude totiž predstavovať konkurenčnú výhodu alebo konkurenčnú nutnosť. Zároveň je ale treba dodať, že istá forma regulácie bude potrebná, aby sa stanovili pravidlá pre podnikajúce firmy. No zločinci a podvodníci určite nebudú pridávať vodoznaky, aby uviedli, že tento obrázok je podvrh. S tým treba počítať.

Škodlivé kódy

ESET analyzuje obrovské množstvo vzoriek. Dátový sklad antivírusovej firmy na uchovávanie škodlivých kódov a rôznych vzoriek sa už dnes počíta na PetaBajty. Na to aby ste obsluhovali takýto dátový sklad, je potrebné mať silný výpočtový výkon. Nie je však potrebné analyzovať celý dátový sklad a všetky vzorky. Ide o zatriedenie a segmentovanie, podobne ako to robia aj nástroje s umelou inteligenciou.

ChatGPT funguje tak, že otázku si najprv rozloží na základe slov do odpovedajúcich segmentov a na základe nich vyhľadáva najlepšie možné odpovede. Nevýhodou tejto umelej inteligencie je, že je navrhnutá tak, aby vám vždy dala nejakú odpoveď. To ale môže znamenať, že vám odpovie úplnú hlúposť. Antivírusová firma k tomu pristupuje inak. Dátový sklad je rozdelený podľa typu vzoriek a na základe strojovej analýzy sa určujú podobné rysy a znaky škodlivých kódov či mechanizmov.

Dnes už to nie je len o škodlivom. Ide ale aj o tom čo tento kód bude robiť aj preto antivírusový uh oneskorí spustenie nejakého súboru alebo aplikácie. Ide o zanedbateľný čas, no bezpečnostnému softvéru postačuje na to, aby preskúmal, čo všetko sa aplikácia chystala po spustení vykonať. Technológia tohto typu je v bezpečnostných programoch ESETu použitá už dlhšiu dobu.

Pribudnú falošné videá

Kým doteraz sme hovorili o analýze textov, čo je z pohľadu technického spracovania aj s ohľadom na náročnosť jednoduchšie, po novom sa budeme musieť vysporiadať aj s analýzou falošných videí. Aj toto je oblasť kde sa o slovo môžu prihlásiť antivírusové firmy. Podľa Juraja Malcha bude spôsobov, ako to robiť niekoľko. Je pravdepodobné, že antivírusový mechanizmus bude musieť vytvoriť prepis hovoreného slova vo videu a na základe konverzácie bude môcť vyhodnocovať rizikovosť takéhoto obsahu.

Nemusí skúmať jednotlivé pixely a analyzovať, či išlo o legitímny záznam z kamery smartfónu alebo profesionálne vytvoreného obrazu. Množstvo takýchto videí bude od používateľa vyžadovať dodatočnú akciu. Iste, budú tu videá, ktoré budú mať za cieľ šíriť istý typ propagandy alebo názorov, prípadne mylných informácií. Takéto videá sa budú môcť analyzovať pravdepodobne na základe istého rozobratia jednotlivých časových rámcov (timeframe).

Nakoniec veď umelá inteligencia bude využívaná na generovanie legitímnych videí. Ak nejaké video bude vygenerované za pomoci takéhoto nástroja, nemusí nutne znamenať, že sa chystá šíriť propagandu. Firmy, ktoré budú odhaľovať tieto podvody, sa budú pravdepodobne spoliehať na dodatočnú akciu. Vždy je totiž potrebné vykonať ďalší krok, či už používateľa nabádať na zavolanie, poslanie peňazí alebo na kliknutie linku, ktorý sa bude nachádzať pod daným videom. Toto by mohli byť znaky blížiaceho sa podvodu.

Technologický riaditeľ ESETu zároveň poznamenáva, že umelá inteligencia a nástroje, ako sú ChatGPT alebo nástroje podobného typu bude žiaduce používať pri svojej práci. Jednak sme spomenuli sektor zdravotníctva, takisto v oblasti finančníctva a tiež napríklad pri práci s bežným textom. Sú oblasti kde tieto nástroje budú užitočné na to, aby používatelia nemuseli vytvárať rutinne texty alebo formuláre ručne.

Nechajú ich na základe konkrétnych požiadaviek a vytvoriť. Rovnako budú tieto nástroje prospešné aj pre programátorov. Nejde o to, aby boli nahradení, pretože ľudský faktor bude stále musieť rozhodovať o tvare a spôsobe vytvorenia kódu, no v mnohých rutinných záležitostiach bude umelá inteligencia nápomocná. Napríklad pri odhaľovaní rizikovosti zapísaného kódu a súvislostiach, ktoré si programátor v danom momente nemusí uvedomiť.

Konkrétne pre ESET znamená využitie nástrojov AI alebo ML v na rozlišovanie kódu, ktorý je zahrnutý do automatickej analýzy. Cieľom je zistiť, či je kód škodlivý alebo je čistý. Najväčší problém je so vstupnou klasifikáciou dát a to treba jednoznačne nastaviť. Človek musí zadefinovať základné elementy, podľa čoho sa bude posudzovať škodlivosť alebo legitímnosť kódu a jeho vykonávania.

Otázka, či tieto technológie nazývať ako umelá inteligencia alebo strojové učenie, je z pohľadu technického riaditeľa bezvýznamné. Ide o spôsob, akým vytvoriť pokročilú automatizáciu a používať jej techniky na analýzu dát. Či sa to bude volať ako strojové učenie alebo umelá inteligencia alebo v budúcnosti príde niekto s ďalším názvom, nie je vo výsledku podstatné.

Odhadovanie čo sa bude v budúcnosti diať je náročné rovnako aj pre antivírusovú firmu, ktorá sa vývojom bezpečnostných produktov zaoberá. Spomeňme napríklad ransomvér. Ten tu bol ešte pred rokom 2010 a nikto nečakal tento typ škodlivých kódov. V zásade to používatelia ignorovali a dovtedy s touto hrozbou nebol problém. Avšak akonáhle sa používatelia chytili na vydieračské praktiky a mnohé firmy nemali častokrát na výber a skúšali šťastie zaplatiť podvodníkom za to, že im pošlú šifrovací kľúč, ransomvér sa dostal na vzostup. Následne podvodníci zistili, že táto forma zaberá, a tak o nej počujeme dodnes. Až čoraz väčšej miere.

Sociálne siete

Viac obáv ako to, že nás umelá inteligencia pripraví o prácu, by sme mali mať v použití tejto technológie na sociálnych sieťach. Generovanie útokov šité priamo na konkrétneho jednotlivca bude oveľa jednoduchšie a lacnejšie. V súčasnosti je pre menej známe osoby takýto útok príliš drahý na to, aby z toho podvodníci takpovediac niečo vytĺkli. Akonáhle bude ale obsah a príspevky, prípadne rôzne komentáre alebo falošné profily generovať AI, situácia sa otočí.

Potrvá jej to radovo v niekoľkých desiatkach sekúnd. Stačí falošný profil, ktorý vám pošle správu, aby ste poslali niekam peniaze alebo na niečo klikli, prípadne niekomu pomohli a kým zistíte, že nejde o profil vášho spoločného známeho alebo rodinného príslušníka, bude neskoro. Pre AI je totiž veľmi jednoduché prehľadať blogy konkrétnej osoby, aby sa naučila štýl písania a slová, ktoré používa a následne ich používať vo falošnej komunikácii s vami.

Zdroj: ESET, vlastné

Prečítajte si aj:

Michal Reiter

Michal Reiter
Publikujem o dianí na internete, súkromí, bezpečnosti a testujem notebooky, smartfóny, audio produkty a ďalšie gadgety.