Enne koroonat oleksin ennast kirjeldanud kui tehnoloogilist optimisti. Uued tehnoloogiad tulevad peaaegu alati liialdatud hirmude keskel. Raudteed pidid põhjustama vaimseid kokkuvarisemisi, jalgrattad arvati tegevat naisi viljatuks või hulluks ning varajast elektrit süüdistati kõiges alates moraalsest allakäigust kuni füüsilise kokkuvarisemiseni. Aja jooksul need ärevused hääbusid, ühiskonnad kohanesid ja elatustase tõusis. Muster oli piisavalt tuttav, et tehisintellekt tundus seda järgivat: häiriv, mõnikord valesti kasutatav, kuid lõpuks hallatav.
Koroonaaastad kõigutasid seda usaldust – mitte tehnoloogia, vaid institutsioonide ebaõnnestumise tõttu.
Suures osas maailmas reageerisid valitsused ja ekspertorganisatsioonid ebakindlusele enneolematute sotsiaalsete ja biomeditsiiniliste sekkumistega, mida õigustasid halvima stsenaariumi mudelid ja mida jõustati märkimisväärse kindlusega. Konkureerivaid hüpoteese pigem marginaliseeriti kui arutati. Erakorralised meetmed muutusid pikaajaliseks poliitikaks. Kui tõendid muutusid, oli vigade tunnistamine haruldane ja vastutusele võtmine veelgi haruldasem. Kogemus paljastas sügavama probleemi kui ükski poliitiline viga: tänapäeva institutsioonid näivad olevat halvasti varustatud ebakindlusega toimetulekuks ilma liigse sekkumiseta.
See õppetund kaalub nüüd oluliselt kaasa tehisintellekti üle peetavatele aruteludele.
Tehisintellekti riskide jaotus
Laiemalt öeldes jaguneb mure arenenud tehisintellekti pärast kahte leeri. Üks rühm – keda seostatakse selliste mõtlejatega nagu Eliezer Yudkowsky ja Nate Soares – väidab, et piisavalt arenenud tehisintellekt on vaikimisi katastroofiliselt ohtlik. Oma tahtlikult karmis sõnastuses Kui keegi selle ehitab, surevad kõik, probleem ei ole halbades kavatsustes, vaid stiimulites: konkurents tagab, et keegi lõikab nurki ja kui süsteem väljub sisulise kontrolli alt, pole kavatsustel enam tähtsust.
Teine leer, kuhu kuuluvad sellised tegelased nagu Stuart Russell, Nick Bostrom ja Max Tegmark, suhtub tehisintellekti riski tõsiselt, kuid on optimistlikumad, et ühtlustamine, hoolikas juhtimine ja järkjärguline juurutamine suudavad süsteemid inimese kontrolli all hoida.
Vaatamata erimeelsustele on mõlemad leerid ühel järeldusel: tehisintellekti piiramatu arendamine on ohtlik ning vajalik on mingisugune järelevalve, koordineerimine või piiramine. Lahkarvamused on teostatavuse ja kiireloomulisuse küsimuses. Harva uuritakse aga seda, kas institutsioonid, kellelt oodatakse sellise piiramise tagamist, on ise selle rolli jaoks sobivad.
Covid annab põhjust kahtluseks.
Covid ei olnud pelgalt rahvatervise kriis; see oli ekspertide juhitud valitsemise elav eksperiment ebakindluse tingimustes. Mittetäielike andmetega silmitsi seistes valisid võimud korduvalt maksimaalsed sekkumised, mida õigustasid spekulatiivsed kahjud. Teisitimõtlemist käsitleti sageli pigem moraalse läbikukkumisena kui teadusliku vajadusena. Poliitikat ei kaitstud mitte läbipaistva kulude-tulude analüüsi, vaid autoriteedile apelleerimise ja hüpoteetiliste tulevikute hirmu abil.
See muster on oluline, sest see näitab, kuidas tänapäeva institutsioonid käituvad, kui panuseid raamistatakse eksistentsiaalsetena. Stiimulid nihkuvad otsustusvõime, narratiivse kontrolli ja moraalse kindluse poole. Vigade parandamine muutub maine seisukohalt kulukaks. Ettevaatusabinõud lakkavad olemast tööriist ja saavad doktriiniks.
Õppetund ei seisne selles, et ekspertidel on ainulaadsed vead. Pigem premeerivad institutsioonid liigset enesekindlust palju usaldusväärsemalt kui alandlikkust, eriti kui poliitika, rahastamine ja avalik hirm on ühel lainel. Kui erakordseid võimeid turvalisuse nimel juba kord nõutakse, siis harva loobutakse neist vabatahtlikult.
Just need dünaamikad on nüüd tehisintellekti järelevalve aruteludes nähtavad.
"Mis siis, kui" masin
Korduv õigustus ulatuslikule riiklikule sekkumisele on hüpoteetiline halb tegelane: Mis siis, kui selle ehitab terrorist? Mis siis, kui seda teeb mõni kurikaelriik? Sellest eeldusest lähtub argument, et valitsused peavad katastroofi ärahoidmiseks tegutsema ennetavalt, ulatuslikult ja sageli salaja.
Koroona ajal õigustas sarnane loogika ulatuslikke biomeditsiiniliste uuringute kavasid, hädaolukorra lubasid ja sotsiaalset kontrolli. Põhjendus oli ringlev: sest midagi ohtlikku võib Kui see juhtub, peab riik kohe võtma erakorralisi meetmeid – meetmeid, mis iseenesest kätkevad endas märkimisväärseid, kuid halvasti mõistetud riske.
Tehisintellekti juhtimist raamistatakse üha enam samal viisil. Oht ei seisne mitte ainult selles, et tehisintellekti süsteemid võivad käituda ettearvamatult, vaid ka selles, et hirm selle võimaluse ees õigustab püsiva hädaolukorra juhtimise – tsentraliseeritud kontrolli arvutuste, uuringute ja infovoogude üle – põhjendusel, et alternatiivi pole.
Privaatne risk, avalik risk
Üks alahinnatud erinevus nendes debattides on erasektori osalejate tekitatud riskide ja riigivõimu tekitatud riskide vahel. Eraettevõtteid piiravad – ebatäiuslikult, aga sisuliselt – vastutus, konkurents, maine ja turudistsipliin. Need piirangud ei kõrvalda kahju, kuid loovad tagasisideahelaid.
Valitsused tegutsevad erinevalt. Kui riigid tegutsevad katastroofide ennetamise nimel, nõrgeneb tagasiside. Ebaõnnestumised saab ümber liigitada vajadusteks. Kulusid saab eksternaliseerida. Salastamist saab õigustada turvalisusega. Hüpoteetilised tulevased kahjud muutuvad olevikus poliitilisteks hoobadeks.
Mitmed tehisintellekti valdkonna mõtlejad tunnistavad seda kaudselt. Bostrom on hoiatanud „lukustumisefektide” eest – mitte ainult tehisintellekti süsteemide, vaid ka paanikahetkedel loodud juhtimisstruktuuride puhul. Anthony Aguirre'i üleskutse globaalsele vaoshoitusele, kuigi loogiliselt sidus, tugineb rahvusvahelistele koordineerimisorganitele, mille hiljutine kogemus alandlikkuse ja vigade parandamise osas on halb. Isegi mõõdukamad ettepanekud eeldavad, et regulaatorid on võimelised politiseerimisele ja missiooni laienemisele vastu seisma.
Covid ei anna meile erilist põhjust selles oletuses kindel olla.
Järelevalve paradoks
See viib tehisintellekti debati keskmes oleva murettekitava paradoksini. Kui keegi siiralt usub, et täiustatud tehisintellekti tuleb piirata, aeglustada või peatada, siis on just valitsustel ja rahvusvahelistel institutsioonidel kõige tõenäolisemalt võim seda teha. Ometi on just need osalejad, kelle hiljutine käitumine annab kõige vähem kindlust selle võimu vaoshoitud ja pöörduvale kasutamisele.
Hädaolukorra raamistik on keeruline. Hüpoteetiliste riskide juhtimiseks omandatud autoriteet kipub püsima ja laienema. Institutsioonid harva alahindavad omaenda tähtsust. Tehisintellekti kontekstis suurendab see võimalust, et tehisintellekti riskile reageerimine juurutab hapraid ja politiseeritud kontrollisüsteeme, mida on raskem lahti harutada kui ühtegi üksikut tehnoloogiat.
Teisisõnu, oht ei seisne mitte ainult selles, et tehisintellekt väljub inimese kontrolli alt, vaid ka selles, et hirm tehisintellekti ees kiirendab võimu koondumist institutsioonidesse, mis on juba niigi osutunud vigade tunnistamise suhtes aeglaseks ja teisitimõtlemise suhtes vaenulikuks.
Tegeliku riski ümbermõtestamine
See ei ole argument tehisintellektiga rahuloluks ega ka võimsate tehnoloogiate võimaliku kahju eitamine. See on argument raamistiku laiendamise poolt. Institutsiooniline ebaõnnestumine on iseenesest eksistentsiaalne muutuja. Süsteem, mis eeldab heatahtlikku ja ennast korrigeerivat juhtimist, ei ole turvalisem kui see, mis eeldab heatahtlikku ja kooskõlastatud superintelligentsi.
Enne koroonat oli mõistlik omistada suurem osa tehnoloogilisest pessimismist inimlikule negatiivsusele – kalduvusele uskuda, et meie põlvkonna väljakutsed on ainulaadselt juhitamatud. Pärast koroonat tundub skeptitsism vähem eelarvamusena ja rohkem kogemusena.
Seega pole tehisintellekti debati keskne küsimus mitte ainult see, kas masinaid saab inimlike väärtustega kooskõlla viia, vaid ka see, kas tänapäevaseid institutsioone saab usaldada ebakindluse haldamisel seda võimendamata. Kui see usaldus on vähenenud – ja Covid väidab, et on –, siis väärivad üleskutsed ulatusliku tehisintellekti järelevalve järele vähemalt sama palju tähelepanu kui väited tehnoloogilisest paratamatuses.
Suurim risk ei pruugi olla tehisintellekti liiga võimsaks muutumine, vaid hirm selle võimaluse ees õigustab kontrollivorme, millega me hiljem avastame, et nendega on palju raskem elada – või mille eest põgeneda.
-
Roger Bate on Brownstone'i stipendiaat, Rahvusvahelise Õiguse ja Majanduse Keskuse vanemteadur (jaanuar 2023 – praeguseni), Aafrika Malaaria Vastu Võitlemise Juhatuse liige (september 2000 – praeguseni) ja Majandusinstituudi stipendiaat (jaanuar 2000 – praeguseni).
Vaata kõik postitused