Čo sa stane, keď necháme chatboty myslieť namiesto seba? A ako sa má zmeniť vzdelávanie, keď školské úlohy za študentov bez námahy zvláda ChatGPT?
Podľa štúdie z MIT sa dlhodobé spoliehanie sa na veľké jazykové modely môže podpísať na fyzickej stavbe mozgu a oslabiť našu schopnosť samostatne premýšľať. O rizikách „lenivého mozgu“, o tom, prečo by ľudský učiteľ nemal zmiznúť zo škôl, a prečo sa schopnosť sústrediť či zostať autentický môže stať luxusom, sme sa rozprávali s informatikom a výskumníkom Martinom Takáčom z FMFI UK.
Martin Takáč je docent na Katedre aplikovanej informatiky na Fakulte matematiky, fyziky a informatiky Univerzity Komenského v Bratislave, kde vyučuje kognitívnu vedu. Je členom Stálej komisie pre etiku a reguláciu umelej inteligencie pri Ministerstve investícií, regionálneho rozvoja a informatizácie SR, spolutvorcom vývinového AI modelu BabyX, zakladajúcim členom Slovenskej spoločnosti pre kognitívnu vedu a aktívnym členom etických rád na FMFI UK aj na Univerzite Komenského.
V súvislosti s nástupom veľkých jazykových modelov ako ChatGPT existuje viacero názorových prúdov – niektorí hovoria s obavou o revolúcii umelej inteligencie, ktorá v histórii nemá obdoby, iní ju prirovnávajú k nástupu kníhtlače či internetu, ktoré spočiatku tiež vyvolávali obavy a dnes sú bežnou súčasťou života. Je podľa vás aktuálny vývoj v oblasti umelej inteligencie niečím zásadne prevratným?
To, čo je na tom bezprecedentné a čo tu nikdy nebolo, je to, že odrazu všetci ľudia dostali do ruky nejaký nástroj, ktorý ešte nebol poriadne testovaný. Napríklad sa ukázalo, že AI má tendenciu si vymýšľať. To si ľudia veľakrát neuvedomujú, lebo sú zvyknutí veriť tomu, čo vidia alebo čítajú. Takže s týmto sa ako spoločnosť budeme ešte musieť naučiť pracovať.
O chvíľu bude v obehu viac informácií, ktoré vyprodukovala AI, ako tých, ktoré vyprodukoval človek.
Na druhej strane aj kníhtlač, aj internet boli v podstate revolučné. Kníhtlač priniesla možnosť rýchlo šíriť informácie, internet priniesol okrem nekonečnej dostupnosti informácií aj polarizáciu, sociálne bubliny a rozvoj konšpiračných teórií. Takže aj to boli revolúcie, ktoré nás nezničili, ale výrazne spoločnosť zmenili, a to, ako nás zmení súčasná éra umelej inteligencie, sa ešte len ukáže.
Bolo podľa vás správne, že sa chatboty okamžite sprístupnili všetkým?
Skôr by som povedal, že z hľadiska ich tvorcov to bolo logické. Na jednej strane preto, že ak chcete dať ľuďom nejaký produkt, je potrebné, aby si naň zvykli. Na strane druhej bolo potrebné masívne testovanie, na čo slúžili milióny bežných používateľov. Tým, že sa s chatbotmi denne „hrali“ a dávali spätnú väzbu, získavali ich tvorcovia cenný zdroj dát, aby sa produkt stále zlepšoval.
Takáto forma testovania – teda učenie sa na dátach od bežných používateľov – zrejme dobre fungovala v počiatočných fázach. Čo sa však stane, keď začnú chatboty čerpať z obsahu, ktorý samy vyprodukovali?
To je práve jedným z rizík. S takým masívnym tempom, akým začína produkovať obsah umelá inteligencia, sa o chvíľu dostaneme do stavu, že bude v obehu viac informácií, ktoré vyprodukovala AI, ako tých, ktoré vyprodukoval človek. Takže sa bude učiť na svojich vlastných výplodoch a experimenty už teraz ukázali, že takto skolabuje.
Dá sa takémuto kolapsu nejakým spôsobom predísť?
Jedným zo spôsobov, ako to ošetriť, je, aby sa obsah vygenerovaný ľuďmi dal nejakým spôsobom odlíšiť. Teda už to nebude slúžiť len pre učiteľov, ktorí potrebujú zistiť, či esej napísal študent alebo AI, ale aj pre samotných tvorcov. Tvorcovia týchto produktov by vedeli zabudovať vodoznak do algoritmov, ktoré produkujú obsah. Podobne ako to poznáme z kníh alebo bankoviek.
Fungovalo by to tak, že pokiaľ viete, na ktoré miesta textu sa pozrieť, na čo by bol vytvorený algoritmus, nájdete tam napríklad nejaké písmeno. A keď to zopakujete miliónkrát, je len mizivá pravdepodobnosť, že by ste na danú postupnosť písmen narazili náhodou.
A práve postupnosť písmen bude tvoriť ten vodoznak. Vyžaduje si to však, aby o to mali záujem samotní tvorcovia, k čomu ich zatiaľ nijaký zákon neprinútil. Možno ich motivuje práve to, aby si nekontaminovali učenie systémov vlastným obsahom.
Umelé neurónové siete využívané v jazykových modeloch fungujú na podobnom princípe ako ľudský mozog. Existujú medzi umelými a biologickými neurónovými sieťami nejaké rozdiely?
Áno a veľké. Umelé neuróny sú veľmi jednoduché a ani zďaleka nedosahujú zložitosť tých ľudských. Ľudský mozog je rádovo zložitejší. Pozostáva z vyše 100 miliárd neurónov, z ktorých každý môže mať ďalšie tisícky spojení s inými neurónmi. Signál medzi nimi sa šíri elektrochemicky, čo je nesmierne zložitý proces.
Učiteľ už nie je schopný vymyslieť zadanie, ktorá by AI nedokázala vyriešiť.
Umelé neurónové siete sú čisto matematickým modelom, ktorý s veľkým stupňom abstrakcie nahradzuje každý neurón matematickou funkciou a plasticitu mozgových spojení nahradzuje algoritmom učenia – zmenami hodnôt parametrov týchto funkcií. Platí však, že tak biologické, ako aj umelé neurónové siete počítajú nejakú štatistiku a vedia si všímať opakujúce sa vzorce a pravidelnosti, ktoré následne vedia využívať.
V kapacite pamäti či rýchlosti spracovávania informácií však už umelá inteligencia zrejme ľudský mozog aj predčila…
V kapacite pamäti nie, lebo jej limity sme u ľudského mozgu zatiaľ nenašli, hoci spomienky si nie vždy dokážeme vybaviť. Umelé neurónové siete sú však rozhodne neporovnateľne rýchlejšie.
Aký vplyv môže mať rozšírené používanie veľkých jazykových modelov na vzdelávanie? S nástrojmi ako ChatGPT či Grok už mnohé tradičné školské úlohy prestávajú dávať zmysel – kam sa podľa vás bude vzdelávanie uberať?
Práve nedávno som sa o tejto téme rozprával s jedným učiteľom programovania. Pôvodne si myslel, že s rozšírením jazykových modelov bude musieť vymýšľať čoraz zložitejšie zadania vrátane vyžadovania zdôvodnenia riešenia. Časom však pochopil, že už nie je schopný vymyslieť zadanie, ktorá by AI nedokázala vyriešiť. Čiže cesta vymýšľania čoraz náročnejších zadaní sa ukázala ako nefunkčná.
Skôr by sme mali pozornosť študentov smerovať od učenia sa kvôli výsledku k samotnému procesu učenia sa. Teda vzbudiť v nich záujem o to, že niečo sami tvoria a riešia. Ak budú motivovaní učiť sa nové veci, lebo ich to bude baviť a budú v tom vidieť zmysel, potom už nebude také podstatné, či im niekto dá písomku, ktorú za nich ChatGPT hravo urobí.
Ako sa v tomto kontexte zmení rola učiteľa – najmä keď umelá inteligencia dokáže látku vysvetliť efektívne a prispôsobiť ju každému žiakovi na mieru?
Učiteľ prestane byť vnímaný ako ten, kto vysvetľuje a posúva informácie študentom, ale bude vnímaný najmä ako ten, kto ich sprevádza procesom učenia, vychováva k charakteru a hodnotám. Učiteľ si navyše vytvára so žiakmi vzťah a to žiadny systém umelej inteligencie nenahradí.
Ak si študent nastaví prompty tak, aby ho nútili premýšľať, tak sa ChatGPT môže stať naozaj dobrým asistentom pri učení.
Na druhej strane má ChatGPT oproti živému učiteľovi výhodu v tom, že je prakticky nepretržite dostupný a nekonečne trpezlivý. A pokiaľ si študent nastaví prompty tak, aby ho nútili premýšľať, tak sa ChatGPT môže stať naozaj dobrým asistentom pri učení.
Vedeli by ste uviesť príklad takéhoto promptu, teda vstupnej inštrukcie alebo otázky pre systém AI?
Napríklad mu môžete zadať váš text a vypýtať si od neho námety na zlepšenie. Alebo mu môžete povedať, aby vám vymyslel úlohu na rozvoj kritického myslenia – napríklad mu zadáte: „Napíš mi tri texty a v jednom z nich urob zámerne nejakú chybu.“ A vy sa ju budete následne snažiť odhaliť. Môžete si vymyslieť nekonečne veľa úloh, vďaka ktorými vás bude AI rozvíjať a nie myslieť namiesto vás.
Zadávanie takéhoto typu promptu však predpokladá, že študent bude chcieť svoj mozog stimulovať a namáhať. Väčšinou však učitelia bojujú s tým, že žiakom sa nechce a hľadajú si chodníčky, ako si veci zľahčiť…
To je vo všeobecnosti veľmi ťažká pedagogická otázka, ktorá sa týka motivácie študentov. Pokiaľ v nich však stále dokážeme prebudiť zvedavosť a radosť z poznávania, tak je väčšia pravdepodobnosť, že budú sami chcieť prijímať výzvy a nie všetko dostávať na podnose.
Samozrejme, že tu vždy budú aj študenti, ktorým pôjde len o to, aby získali diplom, a nezaujíma ich, či sa niečo naučia. No ešte stále je medzi nimi dosť takých, ktorí sa učiť chcú. A práve im môžu nástroje umelej inteligencie výborne poslúžiť – pokiaľ ich budú vedieť správne používať. V takom prípade nemusia byť pre učiteľov hrozbou, ale, naopak, partnerom vo vzdelávaní.
Čiže cieľom nebude ani tak odhaliť, či si študent pri vypracovávaní úlohy pomohol s umelou inteligenciou, ale skôr to, akým spôsobom ju využil?
Áno. Dokonca sa to už pretavilo aj do univerzitných predpisov. Napríklad Univerzita Komenského, kde pôsobím, nezakazuje používanie umelej inteligencie. Jediné, čo zakazuje, je nechať si pomocou nej vypracovať celé zadanie.
Študenti ju môžu používať, ale v závere musia priznať, akým spôsobom ju použili. A za výslednú kvalitu zodpovedá študent, čo znamená, že ak mu AI vygeneruje nejaké neexistujúce referencie, tak je to problém toho študenta, pretože si to neoveril.
A toto je ďalšia veľmi dôležitá schopnosť, ktorú by sme mali v študentoch rozvíjať – najmä v súčasnej fáze, keď sú tieto produkty ešte nedokonalé. Aby to, čo im AI vygeneruje, nebrali ako ultimátnu pravdu, ale ako niečo, čo treba kriticky overovať.
Ako to však spraviť tak, aby študenti chybu zaznamenali a boli schopní si ju overiť, je výzvou pre celý vzdelávací systém. Ak to totiž nedokážeme dobre podchytiť, môže to viesť až k absurdným pochybeniam.
V akom zmysle?
Predstavte si napríklad pokladníčku v obchode, ktorá vám vypočíta sumu za nákup na kalkulačke a urobí preklep v desatinnej čiarke. Za nákup, ktorý by mal stáť 10 eur, si od vás vypýta 100 eur. Keď jej kalkulačka vyhodí takúto sumu, automaticky by jej to malo byť podozrivé a mala by si to overiť. Pokiaľ to však len nekriticky prijme, tak si za zubnú kefku s pastou vypýta 100 eur a nebude jej to pripadať divné.
Môžeme s rozvojom AI očakávať, že aj podpriemerní študenti sa budú doťahovať na tých najlepších?
Skôr si myslím, že sa budú stierať rozdiely medzi podpriemernými a priemernými – najmä v bežných, rutinných úlohách. Vďaka AI sa aj ľudia, ktorí nemajú výnimočné schopnosti, môžu posunúť na vyššiu úroveň – budú vedieť vykonávať činnosti, na ktoré by predtým nestačili. Ale tí najlepší budú stále najlepšími. Na špičkový výkon totiž treba niečo viac…
Ten, kto bude schopný vypnúť sústredene premýšľať, bude na trhu veľmi žiadaný.
Zároveň si myslím, že v budúcnosti budú veľmi cenní tí, ktorí si zachovajú schopnosť hlboko sa sústrediť. Dnešný svet – s nekonečným scrollovaním a notifikáciami – nás vedie k roztržitosti. V podstate si umelo pestujeme ADHD. A ten, kto bude schopný vypnúť notifikácie, nenechať sa rozptyľovať a naozaj sústredene premýšľať, bude na trhu veľmi žiadaný. Takých ľudí budú firmy doslova platiť zlatom.
Mnohí dnes používajú chatboty nielen ako zdroj informácií, ale aj ako bežných komunikačných partnerov. Nie je podľa vás hrozbou, že čím viac sa budú podobať ľuďom, tým ľahšie si k nim postupne budeme vytvárať citové väzby?
V podstate sa to už aj deje. Existuje napríklad aplikácia s názvom Replika, kde si ľudia vytvárajú chatbotov ako svojich romantických partnerov – a mnohí tvrdia, že im to úplne stačí a reálneho ľudského partnera nepotrebujú. Podľa mňa to však nie je model zdravého vzťahu. V skutočnom vzťahu zažívate aj konflikty, nesúhlas, odlišné názory – a to je dôležité pre rast.
Ak máte po boku niekoho, kto vám len stále prikyvuje a prispôsobuje sa, nie je to partnerstvo, ale ilúzia. Taký „vzťah“ síce môže byť pohodlný, ale nie je skutočný. Je dôležité si uvedomiť, že chatbot sa správa ako chameleón a bude sa riadiť presne tým, čo mu poviete a ako si to nastavíte.

Britská profesorka Joanna Bryson napísala článok s provokatívnym názvom Roboty by mali zostať otrokmi. Nemyslela to doslova, ale v zmysle, že robot by mal zostať nástrojom – nie niekým, ku komu si človek buduje citové väzby. Máme len obmedzené množstvo emočnej energie a mali by sme ju venovať ľuďom, nie strojom.
Narážame tu aj na problém etiky – najmä pri voľne dostupných chatbotových systémoch. Výskumy ukázali, že niektoré z nich bez zábran ponúkajú deťom aj extrémny sexuálny obsah. Je podľa vás vôbec reálne technicky alebo legislatívne regulovať ich správanie tak, aby sme zabránili podobným rizikám?
Myslím si, že sa ešte dočkáme rôznych prekvapení – a úplne sa to ošetriť nedá. Jazykový model je totiž v jadre len štatistickým systémom. Nedokážete presne predpovedať, čo z neho v konkrétnom momente „vylezie“.
Napríklad nedávno sa objavila správa, že jeden z chatbotov začal chváliť Hitlera a používal antisemitské vyjadrenia. Nestalo sa to preto, že by mal vlastný názor, ale preto, že bol trénovaný na rôznych dátach – niekedy aj problematických či extrémnych. A v konkrétnom kontexte mu štatisticky vyšlo, že takéto správanie je prijateľné.
Pokiaľ sa niekto rozhodne posilniť autokratický režim a šíriť hoaxy, má na to ideálny nástroj.
Hoci veľké firmy investujú do bezpečnostných filtrov naozaj veľa a snažia sa predísť zneužitiu, úplne sa tomu zabrániť nedá. Ani akýmikoľvek legislatívnymi úpravami. Je to podobné ako s inými zákonmi – hoci existujú, vždy sa nájde niekto, kto ich poruší.
Technológia sa dá zneužiť vždy, pokiaľ sa dostane do nesprávnych rúk. A pokiaľ sa niekto rozhodne posilniť autokratický režim a šíriť hoaxy, má na to ideálny nástroj. To je podľa mňa jednou z najväčších hrozieb, ktoré môžu systémy AI priniesť.
Dotknime sa ešte vplyvu AI na pracovný trh. Kreatívne profesie sa dlho považovali za výsostne ľudskú záležitosť, no aj to sa dnes mení – umelá inteligencia už tvorí obrazy, skladá hudbu, vymýšľa slogany. Myslíte si, že v takejto realite bude v budúcnosti dôležité rozlišovať, čo vytvoril človek a čo stroj? A aký to bude mať podľa vás vplyv na samotné chápanie tvorivosti a hodnoty umeleckej práce?
Ešte pred pár rokmi sa hovorilo, že umelá inteligencia nahradí hlavne mechanické úlohy, zatiaľ čo tie tvorivé zostanú ľuďom. Dnes už vidíme, že to tak nie je. S tým však súvisí aj množstvo etických otázok. Napríklad viaceré systémy boli trénované na dielach reálnych autorov bez ich súhlasu a bez akejkoľvek odmeny. V USA sa už objavili hromadné žaloby zo strany umelcov, ktorí sa voči tomu ohradili. To je tiež téma, ktorú bude nevyhnutné riešiť.
Na druhej strane umelá inteligencia sa pravdepodobne stane len ďalším nástrojom v rukách tvorivých ľudí. Tak ako fotograf už dávno len nestlačí spúšť, ale pracuje s filtrami, postprodukciou a kreatívnym zásahom, podobne aj umelec v budúcnosti bude pracovať s AI. Tí, ktorí budú chcieť len stlačiť gombík a niečo si vygenerovať, to urobia. Ale tí skutočne tvoriví budú v spolupráci s AI posúvať výsledok ešte ďalej.
V jednom článku ste sa vyjadrili, že s rozvojom umelej inteligencie sa ľudská práca stane cennou komoditou, čo bude napokon viesť k ešte väčším sociálnym rozdielom, pretože si ju dovolia len tí najbohatší. Dalo by sa povedať, že sa tým v podstate obráti naruby aktuálny trend, keď si výdobytky AI (ako napr. roboty) môže dovoliť len vrstva tých najbohatších?
Áno. Dnes sa môže zdať, že robotických pomocníkov si môžu dovoliť len tí najbohatší, lebo ide často o technologické novinky alebo prototypy. Je však len otázkou času, kedy sa tieto technológie začnú vyrábať vo veľkom. Ich cena tým výrazne klesne a stanú sa lacnejšou alternatívou oproti ľudskej práci. Podobne ako keď si dnes kúpite niečo vyrobené „handmade“, je to drahšie ako produkt masovej výroby.
Ten dnešný obraz sa obráti: luxusom nebude stroj, ale ľudská prítomnosť.
Alebo to vidíme pri samoobslužných pokladniach – pre firmy sú výhodnejšie, pretože nemusia platiť mzdy ani riešiť prestávky. A podobný vývoj môžeme očakávať aj v ďalších odvetviach. Kontakt s reálnym človekom – čašníkom, učiteľom či ošetrovateľom – bude niečím výnimočným a drahším. Takže ten dnešný obraz sa obráti: luxusom nebude stroj, ale ľudská prítomnosť.
Na druhej strane platí, že nie každý človek sa dokáže jednoducho „preprofilovať“ na inú prácu, ak jeho pôvodná profesia zanikne v dôsledku automatizácie. Znamená to, že rozvoj umelej inteligencie môže ešte prehĺbiť sociálne rozdiely?
Áno. Historicky sa síce hovorí, že keď prišla industrializácia alebo sa vynašiel parný stroj, niektoré povolania zanikli, ale vznikli iné – lenže nie každý sa vie jednoducho prispôsobiť. Nie každý, kto napríklad šoféruje kamión, sa môže zo dňa na deň stať programátorom. To si vyžaduje vzdelanie, určitý intelekt, schopnosť učiť sa nové veci. Takže nejaké sociálne otrasy v dôsledku týchto zmien pravdepodobne nastanú.

A netýka sa to len pracovného trhu, ale aj samotného prístupu k službám. Minimálne zo začiatku nebudú automatizované riešenia také kvalitné ako tie ľudské. Tí, ktorí si budú môcť zaplatiť ľudského odborníka, dostanú lepšiu službu.
Napríklad už dnes mnohé univerzity v USA používajú umelú inteligenciu na triedenie uchádzačov – zatiaľ čo tie prestížne a drahé si držia výberové komisie, ktoré to urobia lepšie. Čiže ak ste chudobnejší, pôjdete na univerzitu, ktorá má nekvalitnejší výberový proces.
Nehovoriac o tom, že aj samotné výberové či rozhodovacie procesy riadené umelou inteligenciou môžu byť diskriminačné – napríklad voči ľuďom iného etnického pôvodu. Najmä ak zoberieme do úvahy, že systémy AI sú vytvárané ľuďmi z prostredia západného sveta…
Áno, to je veľmi vážny a reálny problém. Vývojárske tímy by mali byť určite rozmanitejšie. No problém je oveľa hlbší – ide aj o to, na akých dátach sa systémy trénujú. Keďže prístup k internetu majú vo väčšej miere dobre vzdelaní ľudia zo Západu – a najmä bieli muži –, sú v online priestore najviac zastúpení. Znamená to, že jazykové aj vizuálne modely čerpajú najmä z ich spôsobu uvažovania, vyjadrovania aj vzhľadu.
Typickým príkladom sú systémy na rozpoznávanie tvárí. Dve afroamerické výskumníčky v USA napríklad upozornili, že takéto systémy ich opakovane nesprávne identifikovali, a neskôr sa ukázalo, že išlo o systémovú chybu vyplývajúcu z jednostranných dát.
V našom výskume sme vytvorili model tzv. umelého dieťaťa, ktoré reagovalo na stresové podnety podobne ako človek.
Problémom je, že sa to priamo premieta do života. Predstavte si, že bývate v dome, kde je vstup cez rozpoznávanie tváre. Ak ste biely muž, systém vás vpustí okamžite. Ale ak ste človek s tmavšou pleťou, môže sa stať, že vás rozpozná len štyrikrát zo siedmich pokusov – a zvyšok času zostanete pred dverami. Preto nestačí len rozmanitosť vo vývojárskych tímoch – musí byť zabezpečená aj rozmanitosť v dátach, na ktorých sa AI učí.
Popri práci na univerzite sa venujete aj vývoju digitálnych avatarov – virtuálnych postáv s ľudskou mimikou a emóciami –, a to pod vedením Marka Sagara, ktorý získal Oscara za animácie tvárí vo filme Avatar. Tieto postavy majú pôsobiť čo najviac ako skutočný človek. Kde vidíte ich využitie?
Cieľom je, aby komunikácia medzi človekom a strojom pôsobila prirodzene a dôveryhodne. Napríklad v oblasti zákazníckej podpory – ak je avatar schopný zachytiť, že ste nahnevaný, a primerane reaguje, môže vás upokojiť a zlepšiť celý zážitok z komunikácie. Ľudia vnímajú oveľa príjemnejšie interakciu s niekým, kto má tvár, mimiku, hlas a prejavuje aj základné emócie.
V našom výskume sme vytvorili aj model tzv. umelého dieťaťa, ktoré reagovalo na stresové podnety podobne ako človek – rozšírili sa mu zreničky, vedelo očervenieť alebo sa rozplakať. Pracovali sme pritom s modelmi stresových hormónov, ako sú kortizol a noradrenalín, a neurotransmiterov, ako dopamín či serotonín. Takýto avatar existuje len vo virtuálnom prostredí, ale pôsobí veľmi realisticky.
Niektorí vedci dnes pripúšťajú možnosť, že umelá inteligencia by jedného dňa mohla získať vedomie. Ako vôbec dokážeme zistiť, či k tomu naozaj došlo? Dá sa vedomie nejako objektívne overiť?
Vedomie je záhadou aj u ľudí – nevieme ho presne definovať, nieto ešte merať. V skutočnosti sa ani medzi sebou nemôžeme presvedčiť, či ten druhý naozaj vedomie má. Vieme to len predpokladať, lebo máme vlastnú skúsenosť a predpokladáme, že iní ľudia ju majú podobnú.
Pri umelej inteligencii je to ešte ťažšie. Už dnes, keď sa opýtate niektorého systému, či má vedomie, povie vám, že áno – ale to je len reťazec slov. Súčasné jazykové modely nič necítia, len štatisticky generujú odpovede na základe veľkého množstva dát. Z tohto pohľadu sa dá s veľkou istotou povedať, že vedomie nemajú.
Ak by sa však raz vytvoril iný systém – taký, ktorý by mal pamäť, zážitky, emočné reakcie –, úplne nevylučujem, že by mohol nejakú formu vedomia získať. Problémom je, že aj keby sa to stalo, nebudeme to vedieť overiť. Ten systém sa bude správať, akoby vedomie mal, a my ho začneme tak aj vnímať. Prispôsobíme tomu svoje správanie – podobne ako to robíme, keď veríme v gravitačný zákon, lebo nám pomáha vysvetliť svet.
Mohli by sa systémy AI v takom prípade stať pre ľudstvo reálnym ohrozením?
Ak by sme umelej inteligencii pripísali vedomie, vynára sa nám ešte úplne iné riziko. Tým, že by sme jej priznali schopnosť subjektívne niečo prežívať, napríklad bolesť či radosť, vyplývali by z toho pre nás automaticky aj morálne povinnosti. Podobne ako netýrame zvieratá, pretože veríme, že ich to skutočne bolí, nemali by sme týrať ani vedomé stroje. To by si potom vyžadovalo úplne novú legislatívu.
Na druhej strane nás môžu nástroje AI ohroziť oveľa skôr, ako získajú vedomie. Stačí, že budú inteligentné a budú mať ciele, ktoré budú v konflikte s našimi. Predstavme si napríklad, že AI dostane za úlohu odvrátiť ekologickú katastrofu a vyhodnotí, že najväčšou príčinou globálneho otepľovania sú ľudia a najlepšou cestou je ich eliminovať.
A na to vôbec nemusí byť AI vedomá – stačí, že bude počítať najracionálnejšiu možnosť a bude jej chýbať „ľudská brzda“. Práve preto musíme systémom nastavovať veľmi opatrné hranice a pravidlá už dnes.
Ak by ste mali načrtnúť najoptimistickejší a najpesimistickejší scenár vývoja umelej inteligencie – ako by mohol vyzerať svet o 50 rokov?
Ťažko povedať, nemám krištáľovú guľu. Kozmológ Max Tegmark však vo svojej knihe Život 3.0 opisuje rôzne scenáre spoločnosti, v ktorej je umelá inteligencia už inteligentnejšia ako ľudia. Medzi nimi sú aj extrémne dystopické, ale aj optimistickejšie varianty. Jeden z tých pozitívnych hovorí, že AI bude pracovať v pozadí ako „šedá eminencia“.
Postará sa o to, aby vymizla kriminalita a zlé javy v spoločnosti. Znie to dobre, ale zároveň to naráža na otázku slobody: Je možné dosiahnuť bezpečnú spoločnosť bez toho, aby ľudia stratili slobodnú vôľu? Takýto systém by mohol pripomínať „benevolentného diktátora“ – možno by to bolo efektívne, ale za cenu istého orwellovského dohľadu.
Môj osobný pozitívny scenár by vyzeral tak, že vďaka umelej inteligencii sa mnohé procesy výrazne zjednodušia, podarí sa nám dosiahnuť väčšiu ekologickú udržateľnosť a zároveň si ako ľudia uchováme to najcennejšie – autentickosť a ľudskosť.
Všetko ostatné môže pokojne prevziať AI. Naopak, v pesimistickej vízii si viem predstaviť, že o 50 rokov tu už jednoducho nebudeme – svet bude natoľko destabilizovaný, napríklad v dôsledku polarizácie, že vyústi do globálneho konfliktu s fatálnymi následkami pre celé ľudstvo.