Spoločnosť

Hriechy umelej inteligencie

Foto: Pixabay

Koronakríza zväčšila rozsah aktivít, ktoré vykonávame online. Zanechávame tak čoraz väčšiu „dátovú stopu“. Využívanie dát na zdokonalenie rôznych činností prostredníctvom umelej inteligencie je jedným z veľkých trendov dneška. Deje sa to už roky, ale v súčasnosti sa čoraz viac hovorí o možných negatívnych dôsledkoch a o potrebe etickej regulácie. Zreálnime našu predstavu o rizikách umelej inteligencie.

Začnime pascou na myši. Jej účel by mala vyjadrovať veta: „Ak rozoznáš (škodlivú) myš, zabi ju.“ Pasca z domácich potrieb je zúfalo nepresná – zareaguje na laboratórnu bielu myšku, na Aničkinho škrečka s ružovou mašličkou aj na nohu námesačného. Sivá myška domáca sa pasci vyšmykne ako naschvál, lebo si návnadu zoberie veľmi opatrne.

Súčasná umelá inteligencia (angl. Artificial Intelligence, AI) dokáže pascu na myši podstatne vylepšiť. Cieľom nie je zmeniť účel pasce, teda vyššie uvedenú vetu, ale zlepšiť presnosť jej vykonania. Mala by pracovať ako ľudia – rozoznať situáciu, pochopiť širšie súvislosti a na základe nahromadených skúseností urobiť správnu akciu.

Strojové rozoznávanie skutočnosti

Prvým krokom pri vylepšovaní pasce je lepšie rozoznanie myši. Pridáme kameru, možno aj ďalšie senzory, ktoré rozlíšia napríklad prítomnosť živého tvora od plyšovej hračky. Rozoznávanie obrazov je dobrá ukážka oblasti, v ktorej ľudia zatiaľ vedú, ale stroje sa postupne zlepšujú.

Priateľa spoznáme aj na väčšiu vzdialenosť, pri zlom osvetlení či s rúškom. Ani sami nevieme ako – možno aj podľa ďalších znakov ako sú typická chôdza alebo zvuk topánok –,  ale odrazu vieme, že to je on. Niekedy sa ukáže, že to bol omyl, ale v mnohých prípadoch je ľudský odhad aj na základe veľmi nedokonalých a neúplných informácií prekvapujúco správny.

Strojové rozoznávania obrazu (a ďalších zložitých druhov údajov) je v každom prípade zlepšením oproti súčasnému stavu, ale presnosť a spoľahlivosť rozoznávania objektov a situácií patrí k rizikám AI. Je kritická najmä vtedy, ak ide o zdravie a bezpečnosť pod časovým tlakom. Dokáže napríklad stroj rozoznať, či sa pred bezpečnostnou kamerou štuchajú kamaráti alebo prebieha pouličná bitka?

Rozhoduje stroj

Ďalším krokom je urobenie rozhodnutia. Bežná pasca čokoľvek vo svojej blízkosti považuje za škodcu a urobí „klap“. Potrebovali by sme inteligenciu, ktorá vyhodnotí obraz a ďalšie dostupné informácie a rozhodne sa… správne. Má urobiť „klap“ pre sivý objekt bez ružovej mašličky?

Snaha robiť lepšie rozhodnutia na základe dostupných údajov nie je nová. Napríklad rozhodnutie o pridelení úveru pre väčšinu z nás urobil stroj. Počítač štatistickými metódami vyhodnotil informácie o všetkých dlžníkoch banky a zistil faktory, ktoré najviac ovplyvňujú schopnosť splácať úver. Výsledkom bol vzorček rizika nesplácania úveru. Z vzorčeka je jasné, na základe čoho sa robí rozhodnutie, aj keď sa to spravidla nezverejňuje. Tento vzorček bol použitý na informácie o nás a výsledkom bolo schválenie alebo zamietnutie žiadosti.

Aj zobrazovanie reklamy na Googli alebo Facebooku je výsledkom strojového vyhodnotenia šance, že klikneme na inzerovaný tovar na základe našej „dátovej stopy“.

Výzvy strojového učenia

Rozhodovanie štatistickými metódami sa neodohráva na základe jednoduchého pravidla ako je „sivý objekt bez ružovej mašličky“, ale vyhodnotením viacerých faktorov určených strojom na základe doterajšej skúsenosti. Ešte ďalej idú takzvané neurónové siete, ktoré sa učia z dostupných dát podobným spôsobom, ako sa učí človek. Týmto počítačovým metódam sa hovorí aj strojové učenie alebo hlboké učenie (angl. machine learning, deep learning).

Na rozdiel od spomínaných štatistických metód výsledkom nie je vzorček, ale celkový stav „poučenej“ neurónovej siete. Neurónová sieť rozhoduje bez vysvetlenia dôvodu, čo sťažuje kontrolu spravodlivosti rozhodnutia. Preto sa investuje veľa úsilia do výskumu lepšej interpretovateľnosti strojových rozhodnutí.

Odborníci sa tým až tak nechvália, ale použitie strojového učenia už prinieslo aj niekoľko neslávnych výsledkov:

Strojové rozhodovanie o výške trestu dávalo vyššiu váhu „zlým kamarátom“ obvineného ako samotnej závažnosti priestupku. To je dobrý nápad pri hľadaní podozrivých, ale nespravodlivosť pri rozhodovaní o treste.
Stroj prideľoval drahšie liečebné postupy pacientom, ktorí mali aj doteraz vyššie náklady na liečenie. To je nespravodlivé pre ľudí zo sociálne vylúčených skupín, ktorí dovtedy nedostali dostatočnú zdravotnú starostlivosť.
Určovanie závažnosti diagnózy srdca podľa röntgenovej snímky sa naučilo využívať označenie modelu röntgenového prístroja na okraji snímky. Najzávažnejšie prípady boli pre stroj tie, pre ktoré bol použitý prenosný röntgen. Takéto rozhodovanie je samozrejme úplne nanič, lebo zamieňa príčinu a dôsledok.

 

Ľudia sú omylní, korumpovateľní, konajú pod vplyvom emócií alebo únavy, ale uvedené príklady ukazujú, že ani stroj nemusí automaticky rozhodovať lepšie a spravodlivejšie. Z logiky veci dokonca vyplýva, že strojové učenie sa správa ako „AI konzervatívec so silnými predsudkami“, lebo ešte viac zvýrazní akékoľvek odchýlky, nespravodlivosti alebo nepokryté situácie, ktoré sa nachádzajú v údajoch použitých na učenie.

Etika pre umelú inteligenciu

Na odstránenie tohto „dedičného hriechu AI“ možno použiť rôzne metódy – napríklad zakázať strojové rozhodovanie na základe údajov ako sú pohlavie, vek, národnosť či náboženská príslušnosť. Aby to nebolo také jednoduché, použitie týchto citlivých údajov môže byť nutné pre situácie, ktoré sa v zvýšenej miere týkajú jedného pohlavia alebo vekovej kategórie. A čo tak používanie vulgarizmov na Facebooku alebo šírenie fake news?

Dá sa očakávať aj dlhá diskusia o tom, ktoré rozhodnutia zveriť strojom a kedy z nich urobiť iba poradcov, ktorí človeka upozornia na poznatky získané strojovým učením. Podobne zaujímavá je otázka zodpovednosti za škody spôsobené strojmi.

Cena ako kritériom správnej akcie?

Posledným krokom vylepšovania pasce na myši je výber akcie. Pre našu AI pascu to nebude až taký problém, ale rozhodovanie v reálnom svete môže znamenať výber vhodnej možnosti z miliárd kombinácií. A pritom rôzne alternatívy majú spravidla odlišné výhody, nevýhody a aj cenu.

Dôležitým slovom je optimalizácia. Matematické optimalizačné metódy sa mnoho rokov využívajú hlavne v logistike a výrobe – ako s čo najmenšími nákladmi rozviezť tovar alebo čo najlepšie využiť materiál. Zaujímavým momentom na premýšľanie je potreba nastaviť hraničné hodnoty premenných pre optimalizačný algoritmus. Počítaču je jedno, či sú nimi nosnosť kamiónu a maximálny čas rozvozu tovaru alebo dodržiavanie zákonov, ekológie a etických princípov.

Treba stanoviť aj kritérium optimálnosti. Môže sa to zdať prízemné, ale spravidla ním je cena. Skúsenosť hovorí, že najrýchlejšie alebo najkvalitnejšie riešenia sú málokedy najlacnejšie. Preto potrebujeme určiť prijateľné mantinely parametrov – napríklad kapacity systému, času trvania, kvality alebo ekologických požiadaviek – a v rámci nich stroj vyhľadá najlacnejšie riešenie.

Nepochybne tu vzniká pokušenie nechať umelú inteligenciu podliezať latku poctivosti za účelom zvýšenia zisku. Pri optimalizácii sa tiež stáva, že pre nastavené parametre žiadne riešenie neexistuje. Možno aj „stroje v úzkych“ budú podobne ako ľudia potrebovať plán B – inštinkt prežitia aj za cenu kompromisov a strát.

Hovorme o etike AI

Diskusia o etike umelej inteligencie už prebieha. Na rímskej konferencii Pápežskej akadémie pre život bola aj za účasti IT firiem prijatá „Rímska výzva za etickú umelú inteligenciu“, ktorá definovala niekoľko etických princípov. S viacerými z nich sme sa stretli v tomto článku: transparentnosť ako vysvetliteľnosť strojového rozhodovania, inklúzia na zohľadnenie potrieb všetkých, zodpovednosť pri využívaní možností AI, nestrannosť ako spravodlivosť a nediskriminácia, spoľahlivosť či rešpektovanie bezpečnosti a súkromia ľudí.

 

Literatúra:

Rímska výzva za etickú umelú inteligenciu, https://www.kbs.sk/obsah/sekcia/h/dokumenty-a-vyhlasenia/p/dokumenty-vatikanskych-uradov/c/vyzva-na-etiku-v-oblasti-umelej-inteligencie

Box, Jim a kol.: Human Bias in Machine Learning, https://www.sas.com/content/dam/SAS/support/en/sas-global-forum-proceedings/2020/4506-2020.pdf

Ak sa vám článok páčil, zdieľajte ho svojim priateľom a známym na sociálnych sieťach.

Súvisiace články

Výber NM: Americký minister obrany pricestoval do Izraela. Krajiny chcú nájsť dohodu o jadrovom zbrojení

Michal Lukáč

Výber NM: Pápež vyslal do sveta počas Urbi et Orbi mierové posolstvo

Michal Lukáč

Výber NM: Veľký zelený múr uprostred Afriky, ktorý má zabrániť katastrofe, získal svetovú finančnú podporu

Michal Lukáč

Na našich stránkach používame cookies. Slúžia na zlepšenie našej práce a vášho zážitku z čítania. Spracovanie a správu cookies nastavíte priamo vo Vašom prehliadači. Súhlasím Viac

Cookies