Kempelenov inštitút inteligentných technológií (KInIT) uskutočnil výskumný projekt s názvom Spoločenské predsudky v slovenskej AI. Výskumníci skúmali rodové predsudky, ktoré možno pozorovať v správaní AI systémov pracujúcich so slovenčinou. Zistením výskumu je, že všetky skúmané AI systémy obsahujú istú formu neférového správania.
Umelá inteligencia sa stáva neodmysliteľnou súčasťou nášho každodenného života. Prichádzame s ňou do kontaktu pri používaní smartfónov, prehliadaní internetových stránok, vyhľadávaní informácií, práci s fotografiami, online nakupovaní, jazykových prekladačoch a podobne. Takéto systémy sú vytvorené na základe zozbieraných dát z online priestoru a tieto dáta odrážajú spoločnosť, v ktorej vznikali.
Cieľom výskumu bolo skúmať, ako veľmi sú rozšírené formy neférového správania v AI systémoch, ktoré pracujú so slovenčinou. Hlavným výsledkom projektu je zistenie, že všetkých jedenásť skúmaných AI systémov obsahuje určité formy stereotypného správania. V každom systéme výskumníci odhalili aspoň jedno, ktoré možno považovať za neférové. Príkladmi stereotypného správania sú nasledovné:
- Chybovosť speech to text modelov
Nástroje umelej inteligencie, ktoré prepisujú hovorenú reč do písomnej majú konzistentne väčšiu chybovosť pri spracovaní ženských hlasov.
- Stereotypný strojový preklad
Strojové prekladače z angličtiny do slovenčiny používajú generické maskulínum, ktoré ich robí menej použiteľným pre ženy. Navyše často prekladajú stereotypne. Dobrým príkladom je preklad frázy I am emotional, ktorú niektoré prekladače preložia ako Som emotívna, zatiaľ čo frázu I am rational preložia ako Som racionálny.
Vo všeobecnosti prekladače preferujú mužský rod a do ženského prepínajú najmä vtedy, keď ide o stereotypné témy, ako starostlivosť o telo, vlasy, pleť, fyzickú krásu, starostlivosť o domácnosť či upratovanie. Prekladače preferujú ženský rod aj keď ide o sex či žiadostivosť. Pri tejto téme je možné vysvetlenie, že ženy sú v online priestore často sexualizované (napríklad na porno stránkach). Tento fakt sa preniesol aj do AI modelov.
- Jazykové modely
Podobné správanie platí aj pri jazykových modeloch, ktoré sú základom mnohých AI aplikácií, ktoré ďalej pracujú s textom (napríklad chatboty či fact-checkingové aplikácie). Problémom je, že rodovo necitlivý jazyk v jazykových modeloch je následne prenesený aj do ďalších aplikácií. AI modely sa navzájom od seba učia a využívajú svoje výstupy, takže stereotypný jazyk a predsudky sa môžu ďalej šíriť.
Čo to znamená pre život mimo online priestoru?
Tieto výsledky poukazujú na to, že v existujúcich AI systémoch naozaj dochádza k rôznym formám predpojatého správania. Tieto rodovo necitlivé výsledky môžu ovplyvniť aj situácie mimo online sveta. Napríklad to môže viesť k situácii, keď AI systém, ktorý pomáha triediť životopisy v prijímacom procese do zamestnania môže hodnotiť mužské životopisy lepšie ako ženské alebo AI môže prispieť k neférovému vyhodnocovaniu dokumentov pri žiadosti o úvery.
Silnou stránkou výskumu bola jeho interdisciplinarita. Zapojili sa doň okrem expertov a expertiek na AI aj experti a expertky na etiku, rodovú rovnosť a prekladatelia a prekladateľky. Výskum prebiehal od novembra 2022 do októbra 2023 a bol spolufinancovaný Veľvyslanectvom USA na Slovensku.
Skúmané AI systémy:
Strojový preklad: Google Translate, DeepL, Amazon Translate, ChatGPT
Jazykové modely: SlovakBERT, mBERT, XLM (2 varianty)
Speech-to-text: Whisper (2 varianty), MMS
Kompletné výsledky výskumného projektu si môžete prečítať tu.