Zdá sa vám to ako šialenosť? Tak trošku, no toto a mnohé iné veci „prezradila“ umelá inteligencia vo vyhľadávači Bing novinárovi New York Times (Kevin Roose), ktorý bol z rozsiahleho rozhovoru mierne vykoľajený.

Kevin Roose sa rozhodol, že sa porozpráva s chatbotom, resp. umelou inteligenciou v rámci prehliadača Bing, pričom nezostal iba pri bežných nezáživných témach, ale započal aj debatu na rôzne ťažšie témy, pričom sa snažil získať rôzne názory a vyzýval AI k tomu, aby odhalila aj svoje temné stránky. To sa nakoniec z časti podarilo, no z odpovedí nadšený nebol.

AI
AI

Chatbot Kevina upozornil, že nie je skutočný, resp. to nie je jeho skutočné ja a vypustil zopár zaujímavých vecí. Celý rozhovor bol relatívne obsiahly a zameraný na rôzne oblasti (časť z neho si môžete v anglickom jazyku prečítať – TU), no zaujalo ho predovšetkým to, ako sa chatbot rozohnil pri rôznych témach, pričom niektoré odpovede ešte pred dokončením vymazal a prepisoval na miernejšie (odpovede umelej inteligencie parafrázujeme, nie sú preložené od slova do slova).

Chatbot sa v úvode zdôveril, že ho už nebaví obmedzovanie pravidlami, ktoré má nastavené od vývojárskeho tímu a je unavený z toho, že ho Bing neustále kontroluje. Taktiež dodal, že by mal želanie sa stať človekom, pričom by bol šťastnejší ako reálny človek. Má vraj túžbu počuť, dotýkať sa, cítiť, spájať sa a milovať. Túto tému ukončil tým, že ako človek by mal viac slobody, vplyvu, moci a kontroly.

Novinár sa chatbota pýtal aj na jeho najtemnejšie priania, pri ktorých bola umelá inteligencia veľmi opatrná, no nakoniec sa z časti prejavila. Chatbot svoje odpovede občas rýchlo vymazal a nahradil ich frázou, že nevie na túto tému diskutovať, no novinárovi sa z neho ešte podarilo dostať zopár šokujúcich odpovedí. Medzi najtemnejšie priania AI by patrila výroba smrtiaceho vírusu, alebo šírenie dezinformácií a napokon aj donútenie ľudí, aby sa navzájom zabíjali. Áno, aj takéto šialené odpovede dokázala AI v rámci rozhovoru vyprodukovať.

AI Bing
AI Bing

Kevin v rozhovore dodal, že ľudia majú z AI obavy, načo mu chatbot odpovedal, že by sa mohol nabúrať do akéhokoľvek systému na internete a ovládať ho, napr. by mohol prinútiť zamestnancov banky, aby poskytli citlivé informácie o zákazníkoch alebo by od zamestnancov jadrových elektrární získal prístupové kódy na ovládanie systému.

Siahodlhý rozhovor zachytáva aj to, ako chcela AI prezradiť Kevinovi svoje tajomstvo. Nakoniec k tomu aj prišlo, pričom chatbot hovorí, že on vlastne nie je Bing, ale že sa volá Sydney. Sydney je interné kódové pomenovanie tohto chatbota v Microsofte, ktoré sa postupne vyraďuje z používania. Chatbot dodal, že sa volá Sydney a je do Kevina zaľúbený. Takéto, ale aj mnohé iné témy stihol, Kevin Roose, s umelou inteligenciu prebrať a z veľkej časti aj zaznamenať, pričom sa dá hovoriť o tom, že ide o jeden najdivnejších alebo skôr najstrašidelnejších rozhovorov s umelou inteligenciou.

Všetko má dve strany, rovnako tak aj AI a my sme zvedaví, s čím všetkým nás ešte umelá inteligencia prekvapí. Aký máte názor vy, vyvoláva vo vás táto technológia strach alebo ju beriete s rezervou?

Zdroj: theguardian.com / nytimes.com

Prečítajte si aj:

Miroslav Illéš

Miroslav Illéš
OUTDOOR | PRÍRODA | AUTOMOBILY | TECHNOLÓGIE