Peter Šantavý: Systémy umelej inteligencie skutočnú inteligenciu nemajú, len ju simulujú. Nerozlišujú morálne dobré a zlé (rozhovor)

Foto: archív P. Šantavého
Umelá inteligencia, známa pod skratkou AI – artificial intelligence, valcuje všetky platformy, ktoré využíva väčšina ľudí, najmä mladších. Preto je najvyšší čas venovať jej zvláštnu pozornosť. Vedieť, aký má vplyv, zásah a dosah na spoločnosť. O jej výhodách, rizikách a ďalších užitočných radách sme sa rozprávali s katolíckym kňazom Petrom Šantavým, pracujúcim v oblasti kybernetickej bezpečnosti, informačnej spoločnosti i komplexných počítačových systémov a sieťových technológií. Fenoménu AI sa venuje s osobitným zreteľom na oblasť kybernetickej bezpečnosti, etiky a informačnej spoločnosti.
Newsletter

Ak chcete dostávať pravidelné informácie o nových článkoch, knihách alebo o inom obsahu z nášho portálu, prihláste sa na odber našich newsletterov.

Umelá inteligencia strháva pozornosť dnešných moderných ľudí. Môžeme uvažovať o tom, že už prekračuje hranicu praktickej využiteľnosti?

Máte pravdu, fenomén umelej inteligencie patrí k technologickým celebritám súčasného sveta. Systémy umelej inteligencie pravdepodobne už prekročili pomyselnú hranicu praktickej využiteľnosti, množstva oblastí nasadenia a predikovanej ekonomickej návratnosti i očakávaných benefitov. Nástup týchto technológií sa preto javí ako nevratný a v rámci znalostnej spoločnosti v blízkej budúcnosti prakticky všadeprítomný.

Ako expert kybernetickej bezpečnosti s 25-ročnými skúsenosťami viete veľmi rýchlo a s veľkou presnosťou vyhodnotiť, ako umelá inteligencia ovplyvňuje dnešných ľudí?

Ovplyvňovanie, či už pozitívne, alebo negatívne, prebieha v dvoch líniách.

Primárne ide o ľudí, ktorí sa o tieto technológie zaujímajú, respektíve ich aktívne využívajú, či už ide o oblasť pracovnú, osobnú, alebo spoločenskú. V mnohých prípadoch ide o pracovné nástroje a algoritmy stojace za službami, ktoré používajú, a často o technologické výdobytky, prostriedky i nástroje zábavy, bez ktorých si nevedia moderný život predstaviť.

V modernej spoločnosti, ktorá je preniknutá digitalizáciou a informatizáciou služieb a pracovno-právnych procesov i neustálym plošným zbieraním dát, však existuje i sekundárny vplyv: predmetom činnosti systémov umelej inteligencie sa stávajú prakticky všetci občania, pričom dôsledky, či už pozitívne, alebo negatívne, závisia od regulačného a etického rámca, ktorý by mal nasadenie a využívanie týchto technológií usmerňovať.

Je tento vplyv pokračovaním zmien, ktoré prináša informatizácia a digitalizácia, alebo ide o niečo viac?

Už zmeny, ktoré prináša informatizácia a digitalizácia so všetkou virtualizáciou, kybernetickým priestorom a podobne, môžeme nazvať paradigmatickými. To znamená, že informačné technológie a dáta sa z roviny prostriedku dostávajú do roviny kontextu spoločnosti až do tej miery, že na základe zmien v technológiách, vzhľadom na prevratný vedecký i technologický pokrok, sa mení medziľudská komunikácia v esenciálnej rovine. Teda menia sa vzťahy, spoločnosť a princípy jej fungovania.

Fenomén umelej inteligencie tieto zmeny nielen prehlbuje a akceleruje, ale prináša i viaceré nové výzvy. Napríklad stroj sa stáva subjektom komunikácie, vplyv technológií má dosah na kognitívne schopnosti a emocionálnu stránku človeka, mení sa vzťah medzi inteligenciou a racionalitou a podobne.

Navyše sa to všetko deje v rámci postmodernej rezignácie na racio a vo víre hodnotovej relativizácie. Výziev spojených s nástupom umelej inteligencie je neúrekom.

Postmoderná rezignácia a hodnotová relativizácia môžu mať hrozný dosah na ľudstvo. Existuje nejaké základné kritérium týchto systémov, ktoré je orientované vyslovene na dobro človeka?

Základným kritériom pre nasadenie systémov umelej inteligencie s pozitívnymi dôsledkami je práve princíp orientácie na dobro človeka. Je to princíp, o ktorom síce takmer všetci v oblasti vývoja, nasadenia a využívania týchto technológií hovoria, no mnoho ráz tým chápu niečo diametrálne odlišné.

Na základe zmien v technológiách, vzhľadom na prevratný vedecký i technologický pokrok, sa mení medziľudská komunikácia v esenciálnej rovine.

To neznie veľmi dôveryhodne. Ako to myslíte?

V katolíckom ponímaní by tento princíp mal byť chápaný v duchu kresťanskej antropológie. Mal by zahŕňať každú ľudskú bytosť a nikoho nediskriminovať. Mal by mať na zreteli dobro ľudstva a spoločnosti, chrániac pritom a rešpektujúc dobro každej ľudskej bytosti. Tiež by sa mal vyznačovať starostlivosťou o náš „spoločný a zdieľaný domov“, teda o celý stvorený svet.

Ak by sme ako spoločnosť takto pristupovali k vývoju, nasadeniu a využívaniu technológií umelej inteligencie, vyhneme sa nielen ich zneužitiu a nechceným spoločenským, psychologickým a sociálnym dôsledkom, ale i mnohým potencionálnym výzvam budúcnosti, napríklad niektorým aspektom transhumanizmu, eugeniky a podobne.

Zároveň by sme tak vytvorili solídny rámec pre riešenie budúcich problémov, spojených s dlhodobým využívaním systémov umelej inteligencie a s nástupom ich sofistikovaných budúcich modelov, keďže mnohé dôsledky ešte nepoznáme, respektíve do veľkej miery nechápeme.

Foto: Pixabay

Z toho možno badať skôr obavy než nadšenie z nástupu umelej inteligencie.

Mojím zámerom nie je vyvolať obavy. Ide skôr o vnímanie základného nastavenia, na ktoré musíme pri využívaní týchto technológií pamätať, aby sa pre nás stávali v čo najväčšej miere dobrým sluhom a nie zlým pánom.

V súčasnosti tak môžeme badať celé spektrum dôsledkov nasadenia technológií umelej inteligencie – od extrémne prínosných nástrojov v oblasti vedy, zdravotníctva, ochrany zdravia i bezpečnosti a podobne až po alarmujúce, ba až tragické dôsledky v oblasti sociálnych sietí, zhromažďovania a zneužívania dát i vojenského nasadenia.

ChatGPT sa stáva najpopulárnejším nástrojom komunikácie a môžeme predpokladať len masívnejší nárast. Na koľko percent možno dôverovať informáciám, ktoré sprostredkúva?

Ide o fenomén takzvaných generatívnych systémov umelej inteligencie, v rámci ktorých nastal veľký pokrok osobitne v oblasti rozsiahlych jazykových, respektíve multimediálnych modelov. Sprístupnenie ChatGPT od OpenAI zožalo neobyčajný úspech a naštartovalo ich éru. V súčasnosti existuje viacero kvalitných generatívnych systémov a modelov s rôznymi možnosťami využitia a aplikačného prispôsobenia, čím sa tieto technológie stávajú atraktívnymi pre mnohé oblasti nasadenia.

Dôveryhodnosť ChatGPT a podobných systémov percentuálne nie je ťažké vyjadriť, keďže existuje viacero testov a hodnotení, ktoré porovnávajú dosiahnuté výsledky jednotlivých jazykových modelov. Ale vzhľadom na použité algoritmy a technológie je relevantnosť informácií dynamický proces a časom sa mení. A tým sa mení aj úroveň dôveryhodnosti. Preto sa zdráham uvádzať percentuálny odhad.

Napríklad GPT4 mal po spustení relevantnosť okolo 90 % podľa použitej metodiky. No u viacerých používateľov bola pozorovaná postupná degradácia až na otrasné 4 %. Pre úplnosť informácií dodávam, že na uvedenom probléme vývojári OpenAI okamžite zapracovali. Musíme si uvedomiť, že ide o štatistické modely a dynamické systémy, ktorých modus operandi je výrazne odlišný od spôsobu práce ľudského mozgu.

V súčasnosti nepoznáme a nevieme vytvoriť teóriu mysle a model zdravého rozumu v rámci algoritmov umelej inteligencie.

V pracovnom zhone a tlaku na tento fakt používatelia často zabúdajú. Mohli by ste stručne poukázať na základné odlišnosti fungovania umelej inteligencie a ľudského mozgu?

Tým sa dostávame k ďalšiemu problému – procesy prebiehajúce v systémoch umelej inteligencie akosi automaticky považujeme za analogické ľudskému mysleniu a procesom prebiehajúcim v ľudskom mozgu. Ide o chybný úsudok, ktorý môže mať veľmi zlé dôsledky. Napríklad v modeloch umelej inteligencie používaných v rámci sociálnych sietí, ktoré sú orientované na finančný zisk, sú už tieto dôsledky evidentné.

Na rozdiel od ľudskej mysle, ktorej model poznáme a vieme narábať so základnými kategóriami ľudského myslenia a takzvaného zdravého rozumu, v súčasnosti nepoznáme a nevieme vytvoriť teóriu mysle a model zdravého rozumu v rámci algoritmov umelej inteligencie.

To má dôsledky nielen pre snahu o vytvorenie skutočnej umelej inteligencie, teda systémy všeobecnej a silnej umelej inteligencie známe ako AGI, ale i pre riešenie dôsledkov a rizík tvorby i nasadenia systémov súčasných, teda systémy slabej a úzkej umelej inteligencie známe ako ANI, ktoré inteligenciu len simulujú.

Foto: Pexels

To evokuje otázku rizík generatívnych systémov. O ktorých rizikách by mali používatelia určite vedieť?

Generatívne systémy, či už ide o modely jazykové, grafické, alebo generujúce video, vedia byť úžasné v spracúvaní obsahu zadania, generovaní odpovedí a výstupov, pričom často dokážu rýchlo ponúknuť lepšie výsledky než ľudia. Využitie je skutočne širokospektrálne a môže byť úspešné pri chápaní rizík a dôslednom aplikovaní zásad správneho použitia a kontroly.

Avšak jedným z hlavných problémov sú nesprávne odpovede, respektíve takzvané halucinovanie, teda vymýšľanie si odpovedí, ktoré systém predkladá ako relevantné a správne. Treba si uvedomiť, že pri ChatGPT a ostatných generatívnych systémoch AI ide v zásade o štatistické systémy, ktoré určitým spôsobom generujú čo najpravdepodobnejšie odpovede na základe naučených dát. To znamená, že ide o učenie na množine trénovacích dát, priebežné vyhodnocovanie na validačných dátach a následné testovanie kvality a správnosti modelu na testovacích dátach.

Mohli by ste to objasniť konkrétnejšie?

Generatívne systémy zo svojej podstaty nevedia, či je odpoveď správna a či nie, keďže ponúkajú len štatisticky najpravdepodobnejšie výstupy. A tak miesto odpovede „neviem“ ponúkajú vymyslené odpovede, pri ktorých neznalý používateľ nevie rozlíšiť, do akej miery sú pravdivé a do akej miery ide o výmysel. Preto pre úspešné nasadenie v danej oblasti je treba najprv mať jasne definované dáta, z ktorých sa učí, čo je možné v špecializovaných využitiach, a následne u všetkých generatívnych systémov odpovede aj overovať.

S problémom halucinácie je ruka v ruke spojené i riziko predsudkov a neobjektívnych výstupov. Treba však uviesť, že predsudky nie sú doménou len generatívnych systémov, ale dotýkajú sa celého spektra aj starších alebo odlišných technológií umelej inteligencie.

Ďalším problémom je napríklad nejasný spôsob narábania s údajmi, čoho dôsledkom môže byť únik dôverných dát, prehrešky voči ochrane osobných údajov i problémy s autorskými právami.

Generatívne systémy zo svojej podstaty nevedia, či je odpoveď správna a či nie, keďže ponúkajú len štatisticky najpravdepodobnejšie výstupy.

Keď sa v tomto scenári zamyslíme nad tým, aký dosah to môže mať na ľudstvo, prichádzajú na rad aj otázky súvisiace s etickou bariérou.

Veľké generatívne systémy umelej inteligencie sa učia na extrémne veľkej množine dát, ktorú ponúka internet, prípadne neustály zber dát v rámci informačných systémov súčasnosti. Systémy umelej inteligencie skutočnú inteligenciu nemajú, len ju simulujú. Takže okrem iného vôbec nedisponujú schopnosťou rozlišovať morálne dobré a zlé.

Generované výsledky tak môžu byť veľmi problematické. Systém napríklad môže na vyžiadanie dať veľmi presný návod na samovraždu, môže generovať nelegálny obsah, takzvané deep fake systémy môžu vytvárať falošné obrazové, video a audio záznamy ľudí, napríklad vytvorenie falošných pornografických materiálov takmer kohokoľvek, kompromitujúce audio nahrávky verejne činných osôb, falošné vydieranie rodičov vygenerovanými telefonátmi ich detí po fiktívnej autonehode alebo únose a podobne.

Preto sa do súčasných generatívnych systémov implementujú viaceré úrovne kontroly, či už ide o modifikáciu spôsobu učenia sa a generovania výstupov, alebo o výstupné filtre, ktoré detegujú a blokujú problematický obsah. Každý systém je však zraniteľný, takže ide o neustály proces hľadania a implementácie čo najvhodnejších riešení.

Najvhodnejších je asi to správne slovo, lebo to, čo slúži na ochranu, by sa dalo zneužiť i na cenzúru alebo sledovanie. Ale to už ide o inú tému.

Foto: Pixabay

Informácie, ktoré uvádzate, potvrdzujú, že umelá inteligencia je síce záležitosť technického odboru, ale závažne zasahuje do humanitných vied. To nastoľuje otázku súvisiacu s budúcnosťou ľudstva. Nakoľko je umelá inteligencia pre ľudstvo výzvou a nakoľko nebezpečenstvom?

Viaceré vynikajúce osobnosti z oblasti umelej inteligencie hovoria o dvoch možnostiach budúceho vývoja. Ak fenomén umelej inteligencie zvládneme nielen v rovine technologickej, ale predovšetkým v rovine etickej i v celom spektre dôsledkov pre človeka a spoločnosť, pôjde o jednu z najúžasnejších vecí, s ktorými sa ľudstvo v rámci svojho civilizačného vývoja stretlo.

Ak to však nezvládneme a ontologické dôsledky nám prerastú cez hlavu, ako spoločnosť máme problém a z dlhodobého hľadiska nezadržateľne sa blížiacu civilizačnú krízu, pričom tým vôbec nie sú myslené katastrofické scenáre z oblasti sci-fi.

Povedané rečou moderného technokrata – ide o emergentnú a disruptívnu technológiu, teda novú a rozvíjajúcu sa technológiu, ktorá nahrádza a ruší technológie predošlé a úplne mení spôsob, akým spoločnosť funguje, pričom má potenciál posunúť civilizáciu ďalej. A dodávam to, čo už technokrat nepovie – ide o technológiu, ktorú ak nezvládneme, má potenciál nás priviesť k skutočne veľkým problémom.

Mohli by ste to uviesť na konkrétnych príkladoch zo svojej praxe?

Uvediem jedno z mnohých rizík generatívnych systémov – riziko takzvanej digitálnej demencie, pri ktorej prichádza k degradácii intelektuálnych schopností a k dopamínovej závislosti na základe ponorenia sa do virtuálneho sveta, v ktorom systémy umelej inteligencie v čoraz väčšej miere nahrádzajú kognitívne činnosti človeka, a to spôsobom, na ktorý nie sme evolučne vôbec pripravení.

Osobitne môže byť tento problém vypuklý u detí a dospievajúcich. Neuvážené nahrádzanie viacerých kognitívnych úkonov systémami umelej inteligencie môže viesť k postupnému znižovaniu kognitívnych schopností. Problém digitálnej demencie tak môže prispieť k narúšaniu psychického vývoja priskorým, respektíve nezrelým používaním digitálnych technológií a technológií umelej inteligencie.

Časť študentov, využívajúc potenciál digitálnych prostriedkov, sa bude neskutočne zlepšovať, pričom však ostatní, ktorých bude väčšina, sa budú v intenciách digitálnej demencie prepadať.

Tu narážame na paradox, že ľudstvo síce môže napredovať, ale s výrazným poklesom IQ?

Riziko digitálnej demencie sa snúbi s čoraz viac sa otvárajúcimi inteligenčnými nožnicami, keďže časť študentov, využívajúc potenciál digitálnych prostriedkov, sa bude neskutočne zlepšovať, pričom však ostatní, ktorých bude väčšina, sa budú v intenciách digitálnej demencie prepadať.

Pokiaľ nevyriešime tento deevolučný problém, budeme stáť pred veľkou civilizačnou výzvou. Použijúc Gaussovo rozdelenie môžeme povedať, že spoločnosť je natoľko vyspelá, nakoľko je vyspelá jej väčšina. Nezávisle od vyspelej špičky by celá spoločnosť ako taká mohla upadať a nastávalo by nielen postupné znižovanie IQ, ale i úpadok celej intelektuálnej úrovne spoločnosti.

Tento problém, ktorý presahuje technologickú stránku umelej inteligencie, nastoľujete aj vo svojej knihe Umelá inteligencia – dobrý sluha a zlý pán. Za akých podmienok možno zaistiť, aby sa jej rozvoj nesústreďoval len na technológiu, ale bral v prvom rade ohľad na dobro ľudstva?

Umelá inteligencia ako disruptívna a emergentná technológia má potenciál ovplyvňovať vývoj človeka, extrémne vplývať na jeho psychiku, zmýšľanie a činnosť, zasahovať do fungovania spoločnosti a atakovať viaceré oblasti ľudských práv. Preto fenomén umelej inteligencie bytostne presahuje technologickú stránku veci.

Čím komplexnejšie a sofistikovanejšie systémy umelej inteligencie máme a čím väčší dosah na život človeka a spoločnosti si uvedomujeme, respektíve už zakúšame, tým viac sa formuje celosvetové úsilie o ich etické a bezpečné využívanie.

Primárne ide o principiálne etické nastavenie návrhu, vývoja, implementácie, nasadenia a využívania týchto technológií. Základným kritériom je princíp orientácie na dobro človeka, ktorý sme spomínali.

V realite sa principiálny postoj orientácie na dobro človeka stáva ekvivalentným problematike dôveryhodnosti umelej inteligencie, pričom je treba stanoviť podmienky, bez splnenia ktorých by nasadenie systémov do reálneho sveta, v ktorom pôsobia na človeka a vplývajú na spoločnosť, nemalo byť umožnené.

Foto: Pixabay

Hovoríte o podmienkach dôveryhodných systémov umelej inteligencie. Mohli by ste uviesť tie najdôležitejšie?

Dôveryhodné systémy musia byť legálne, teda musia vyhovovať požadovaným normám a reguláciám i spĺňať všetky platné zákony a predpisy. Musia byť etické, teda musia rešpektovať etické zásady a hodnoty. A musia byť robustné, to znamená, že musia dosahovať potrebné štandardy bezpečnosti a spoľahlivosti nielen z technologického hľadiska, ale zohľadňovať aj sociálne prostredie a dosahy na spoločnosť.

Aký je z toho vyvodený praktický dôsledok?

Praktickým dôsledkom je stanovený základný etický rámec a zákonné regulácie pre tvorcov, poskytovateľov a používateľov týchto systémov i implementované eticko-právne požiadavky a obmedzenia priamo v týchto systémoch.

Všetko, čo rozprávate, znie technologicky pokrokovo úžasne, no s vážnymi obavami. Čo je nateraz prioritou, aby ľudstvo umelú inteligenciu využívalo správne, pokiaľ nie je ešte neskoro?

Keďže dosah na spoločnosť bude nesmierny, jednou z priorít sa javí nielen potrebné vzdelávanie, osveta a formácia morálnych postojov vývojárov, poskytovateľov i používateľov technológií umelej inteligencie, ale i edukácia a osveta celej spoločnosti, bez ktorej si ťažko predstaviť rast spoločenskej citlivosti a zodpovednosti v oblasti celoplošnej adaptácie a využívania týchto systémov.

Na základe čoho možno rozlíšiť hranicu, ktorá určuje, že potiaľto je umelá inteligencia dobrým sluhom, a odtiaľto už je zlým pánom?

Základné kritérium je jasné – dobrým sluhom môže byť dôveryhodný, na dobro človeka orientovaný systém umelej inteligencie. Zároveň dobrého sluhu z neho robí etické nasadenie a morálne využívanie výsledkov jeho činnosti.

Reálne problémy pre naplnenie tejto vízie sú však minimálne dva.

Najprv ide o komplexnosť sofistikovaných systémov, ktorých vysvetliteľnosť a interpretovateľnosť so zložitosťou klesá. Primárne ide o technologickú stránku veci súvisiacu s chápaním činnosti týchto systémov, s možnosťou dôverovať ich výsledkom a s rizikami zlyhania i limitmi ich reálneho nasadenia. Navyše niektoré dôsledky pre človeka a spoločnosť môžu byť také komplexné, prípadne skryté a zdanlivo okrajové, že sa môžu prejaviť až po niekoľkých rokoch, respektíve v ďalších generáciách.

Druhým problémom je sám človek, ktorý, obrazne povedané, tento technologický nôž použije na zlé. S ostrým nožom môže odkrojiť skyvu chleba a dať ju núdznemu alebo so skalpelom môže zachrániť pri operácii život. S tým istým nástrojom môže niekoho zabiť alebo na celý život zohaviť.

Niektoré dôsledky pre človeka a spoločnosť môžu byť také komplexné, prípadne skryté a zdanlivo okrajové, že sa môžu prejaviť až po niekoľkých rokoch.

Možno umelú inteligenciu vnímať ako jedno zo znamení časov?

Súčasné systémy umelej inteligencie, takzvané ANI, by som samy osebe ako znamenia čias nevnímal. Avšak ako súčasť civilizačnej premeny rodiacej sa informačnej a digitálnej spoločnosti, nad tým by som už uvažoval.

Ak by však išlo o métu skutočnej umelej inteligencie, ktorej sa vo svojej akademickej činnosti venujem vo verzii takzvanej limitovanej AGI, tak potom by moja odpoveď bola áno.

Využíva Katolícka cirkev možnosti umelej inteligencie v plnej miere?

V rámci Katolíckej cirkvi sa nemáme za čo hanbiť, keďže vnímam nielen snahu o uchopenie a využitie technológií v službe a živote Cirkvi, ale i určitú schopnosť zaradiť sa medzi vizionársky predvoj spoločnosti na ceste k jej etickému využívaniu pre dobro celého ľudstva. Napríklad iniciatíva Rímska výzva na etiku – renAIssance 2020, ktorá bola nielenže zaradená medzi najdôležitejšie celosvetové počiny na poli etiky umelej inteligencie v roku 2020, ale ako platforma má i ďalšie pokračovanie až po súčasnosť.

Čo konkrétne by mala a mohla spraviť Katolícka cirkev na Slovensku, aby podriadila systémy umelej inteligencie do služieb evanjelizácie?

V rámci Katolíckej cirkvi vnímam výzvu a do určitej miery i prebiehajúcu snahu o komplexnú integráciu fenoménu umelej inteligencie v službe spásy človeka a budovania Božieho kráľovstva.

Nadväzujúc na koncilový dokument Inter mirifica a osobitne symboliku sv. Jána Pavla II. z encykliky Redemtoris Missio o moderných Areopágoch dnešnej doby, medzi ktorými svet moderných informačno-komunikačných technológií zastáva prvé miesto, máme v tejto oblasti solídnu náuku i podnety na aktuálnu činnosť, či už ide o vyjadrenia pápežov, dokumenty viacerých vatikánskych dikastérií, alebo pápežských rád, alebo aktuálne podnety zo Súhrnnej správy na záver 16. generálneho zhromaždenia o synodalite, v ktorej sa priamo žiada, aby sa prehĺbil dialóg s humanitnými vedami a aby sa rozvíjali aj otázky týkajúce sa etických problémov spojených s umelou inteligenciou.

Znamená to, že ide o viacero rozmerov aktívnej účasti na riešení výziev spojených s fenoménom umelej inteligencie?

Ide o morálno-etický diskurz, misiu zjednocovať, usmerňovať i propagovať etické aktivity a v neposlednom rade angažovanie sa na poli univerzálneho bratstva a sociálneho priateľstva.

V Cirkvi má morálno-etický diskurz, čiže spoločné skúmanie, rozprava a dialóg pevný základ v Zjavení, pričom môže využívať solídne nástroje teologických vied. Naviac v takej komplexnej téme, akou je umelá inteligencia, musí byť tento dialóg zasadený do interdisciplinárneho rámca, v rámci ktorého sme dostatočne oboznámení aj s technologickou stránkou týchto systémov a psychologickými, sociologickými i právnymi aspektmi ich nasadenia. Z toho všetkého sa rodí schopnosť a možnosť identifikovať, uchopiť, rozpracovať a formulovať základný univerzálny súbor etických kritérií a hodnôt ako odpoveď na etický a hodnotový relativizmus.

Foto: archív P. Šantavého

Katolícka cirkev má v rámci svojho pôsobenia a univerzálneho spoločenstva výnimočnú možnosť iniciovať a rozvíjať celosvetové širokospektrálne hnutie s cieľom etického vývoja a používania technológií umelej inteligencie. Vďaka svojej angažovanosti od diplomatických misií až po periférie sveta má možnosť ponúkať a inkulturovať spoločné referenčné body a hodnoty základných etických kritérií do rôznorodosti ľudského spoločenstva a jednotlivých oblastí nasadenia týchto systémov v spoločnosti.

Sme pozvaní podstúpiť zápas o pravú tvár etiky umelej inteligencie.

Predstavitelia Cirkvi môžu tiež pôsobiť ako neutrálni sprostredkovatelia v špecifických oblastiach, napríklad v rámci jednaní o obmedzení vojenského nasadenia technológií umelej inteligencie a podobne. Na poli univerzálneho bratstva a sociálneho priateľstva sa Cirkev snaží angažovať osobitne v oblasti premostenia a podpory marginalizovaných, ktorí trpia napríklad digitálnym rozdelením, v aplikovaní princípu nenechávať nikoho za sebou a v šírení povedomia, že ak chceme budovať nejakú budúcnosť, musíme ju budovať všetci, inak sa to nedá.

Spomenuli ste niekoľko faktov a výziev umelej inteligencie. Čo to pre každého z nás znamená na osobnej úrovni?

Sme pozvaní podstúpiť zápas o pravú tvár etiky umelej inteligencie – aby sa z nej nestal nástroj moderných ideológií, sociálnej nespravodlivosti, obmedzovania ľudských práv, digitálneho rozdelenia, erózie hodnôt a ohrozenia ľudského bytia i celého spoločenstva, ale aby bola dobrým sluhom, nástrojom v službe spásy a posvätenia človeka i prostriedkom budovania univerzálneho bratstva a sociálneho priateľstva.

Newsletter

Teší nás, že ste tu. Ak chcete dostávať pravidelné informácie o nových článkoch, knihách alebo o inom obsahu z nášho portálu, prihláste sa na odber našich newsletterov.

Pridaj komentár

Vaša e-mailová adresa nebude zverejnená. Vyžadované polia sú označené *

Podobné články