Minu kogemus meditsiinis võimaldab mul eristada tõelist innovatsiooni peenest ümberklassifitseerimisest, mis muudab põhimõtteliselt praktikat, näiliselt muutumatuna. Tehisintellekt on viimasel ajal pälvinud märkimisväärset tähelepanu, sealhulgas laialdaselt levinud väide, et tehisintellektil on Ameerika Ühendriikides "seaduslik õigus meditsiini praktiseerida". Sõna-sõnalt tõlgendatuna on see väide ebatäpne. Ükski meditsiinikomisjon pole masinale litsentsi andnud. Ükski algoritm pole andnud vannet, võtnud usalduskohustust ega võtnud isiklikku vastutust patsiendi kahju eest. Ükski robotarst ei ava kliinikut, ei esita kindlustusandjatele arveid ega seisa arstide hooletuse kohtu ees.
Selle tähelepaneku juures peatumine jätab aga tähelepanuta laiema probleemi. Vastutuse õiguslikke mõisteid defineeritakse praegu uuesti, sageli ilma avalikkuse teadlikkuseta.
Käimas on märkimisväärne muutus, mis õigustab enamat kui lihtsalt refleksiivset eitamist või kriitikavaba tehnoloogilist entusiasmi. Praegune areng ei seisne tehisintellekti arstiks saamises, vaid pigem meditsiini põhipiiride järkjärgulises õõnestamises: kliinilise otsustusvõime ja inimliku vastutuse vahelise sisemise seose õõnestamises. Kliiniline otsustusvõime hõlmab teadlike otsuste tegemist, mis on kohandatud iga patsiendi ainulaadsetele vajadustele ja oludele, mis nõuab empaatiat, intuitsiooni ja sügavat arusaamist meditsiinieetikast.
Inimeste vastutus viitab vastutusele, mida tervishoiuteenuse osutajad nende otsuste ja nende tulemuste eest võtavad. See õõnestumine ei ole dramaatilise seadusandluse ega avaliku arutelu tulemus, vaid toimub vaikselt pilootprogrammide, regulatiivsete ümbertõlgenduste ja vastutust tahtlikult varjava keele kaudu. Kui see piir hajub, muutub meditsiin viisil, mida on raske tagasi pöörata.
Peamine mure ei ole see, kas tehisintellekt suudab retsepte pikendada või ebanormaalseid laboritulemusi tuvastada. Meditsiinis on pikka aega kasutatud tööriistu ja tervishoiuteenuse osutajad tervitavad üldiselt abi, mis vähendab haldusülesandeid või parandab mustrite äratundmist. Tegelik küsimus on selles, kas meditsiinilist otsustusvõimet – õigete toimingute, patsientide ja riskide üle otsustamist – saab vaadelda arvuti loodud tulemusena, mis on eraldatud moraalsest vastutusest. Ajalooliselt on püüdlused otsustusvõimet vastutusest lahutada sageli kahju tekitanud ilma vastutust võtmata.
Hiljutised arengud selgitavad praeguse segaduse algpõhjust. Mitmes osariigis võimaldavad piiratud pilootprogrammid nüüd tehisintellektil põhinevatel süsteemidel abistada stabiilsete krooniliste haiguste retseptide uuendamisel kitsalt määratletud protokollide alusel. Föderaalsel tasandil on kavandatud õigusaktis kaalutud, kas tehisintellekt võiks kvalifitseeruda konkreetsetel seadusjärgsetel eesmärkidel „praktikuks“, eeldusel, et see on asjakohaselt reguleeritud. Neid algatusi esitatakse tavaliselt pragmaatiliste vastustena arstide puudusele, juurdepääsu viivitustele ja halduslikule ebatõhususele. Kuigi ükski neist ei nimeta tehisintellekti otsesõnu arstiks, normaliseerivad nad ühiselt murettekitavama eelduse, et meditsiinilisi toiminguid saab teha ilma selgelt identifitseeritava inimliku otsustajata.
Praktikas on see eristus põhimõtteline. Meditsiini ei defineerita mitte ülesannete mehaanilise täitmise, vaid vastutuse määramise kaudu ebasoodsate tulemuste korral. Retsepti väljakirjutamine on lihtne; tagajärgede eest vastutuse võtmine – eriti kaasuvate haiguste, sotsiaalse konteksti, patsiendi väärtuste või mittetäieliku teabe arvestamisel – on palju keerulisem. Kogu minu karjääri jooksul on see vastutus pidevalt lasunud inimesel, keda saab küsitleda, vaidlustada, parandada ja vastutusele võtta. Kui dr Smith teeb vea, teab perekond, kelle poole pöörduda, tagades otsese ühenduse inimliku vastutusega. Ükski algoritm, olenemata selle keerukusest, ei suuda seda rolli täita.
Peamine risk ei ole tehnoloogiline, vaid regulatiivne ja filosoofiline. See üleminek kujutab endast nihet vooruseetikalt protseduurilisele lähenemisele. Kui seadusandjad ja institutsioonid määratlevad meditsiinilise otsustusprotsessi ümber süsteemide, mitte isiklike tegude funktsioonina, muutub meditsiini moraalne raamistik. Vastutus muutub hajusaks, kahju on raskem omistada ja vastutus nihkub arstidelt protsessidele, hinnangutelt protokolli järgimisele. Kui vead paratamatult tekivad, saab valdav seletus, et „süsteem järgis kehtestatud suuniseid“. Selle ülemineku tunnistamine selgitab nihet individualiseeritud eetilisest otsustusprotsessist mehhaniseeritud protseduurilisele järgimisele.
See mure ei ole teoreetiline. Kaasaegne tervishoid seisab juba silmitsi lahjendatud vastutusega seotud probleemidega. Olen täheldanud, kuidas algoritmipõhiste otsuste tõttu kahjustatud patsiendid kaovad administraatorite, tarnijate ja läbipaistmatute mudelite sekka, ilma selge vastuseta põhiküsimusele: kes selle otsuse tegi? Tehisintellekt kiirendab seda probleemi märkimisväärselt. Algoritm ei saa anda moraalseid selgitusi, rakendada südametunnistusel põhinevat vaoshoitust, keelduda eetilistel kaalutlustel tegutsemisest ega tunnistada patsiendile või perekonnale viga.
Tehisintellekti suurema autonoomia pooldajad toovad sageli õigustuseks efektiivsust. Kliinikud on ülekoormatud, arstid läbipõlevad ja patsiendid ootavad sageli kuid abi, mis peaks võtma vaid minuteid. Need mured on õigustatud ja iga aus arst tunnistab neid. Ainuüksi efektiivsus ei õigusta aga meditsiini eetiliste aluste muutmist. Kiiruse ja ulatuse jaoks optimeeritud süsteemid ohverdavad sageli nüansse, diskreetsust ja individuaalset väärikust. Ajalooliselt on meditsiin sellele kalduvusele vastu seisnud, rõhutades, et ravi on põhimõtteliselt suhe, mitte tehing.
Tehisintellekt riskib selle suhte pea peale pööramisega. Kui ravi osutavad süsteemid, mitte üksikisikud, ei ole patsient enam kliinikuga lepingus, vaid saab osaks töövoost. Arst võtab üle masina juhendaja rolli või, mis veelgi murettekitavam, toimib juriidilise puhvrina, mis neelab vastutuse otsuste eest, mida ta isiklikult ei teinud. Aja jooksul annab kliiniline otsustusvõime teed protokolli järgimisele ja moraalne tahe järk-järgult väheneb.
Tehisintellekt toob kaasa ka peenema ja ohtlikuma probleemi: ebakindluse varjamise. Meditsiin elab ebamäärasuses. Tõendid on tõenäosuslikud. Juhised on esialgsed. Patsiendid esinevad harva puhaste andmekogumitena. Kliinilised arstid on koolitatud mitte ainult tegutsema, vaid ka kõhklema – ära tundma, millal on teave ebapiisav, millal sekkumine võib tekitada rohkem kahju kui kasu või millal on õige tegutsemisviis oodata. Kujutage ette stsenaariumi, kus tehisintellekt soovitab patsiendi väljakirjutamist, kuid patsiendi abikaasa tundub hirmunud, mis rõhutab algoritmilise otsustusprotsessi ja inimliku intuitsiooni vahelist pinget. Selline reaalse maailma hõõrdumine rõhutab ebamäärasuse olulisust.
Tehisintellekti süsteemid ei koge ebakindlust; nad genereerivad väljundeid. Kui nad on valed, teevad nad seda sageli põhjendamatu enesekindlusega. See omadus ei ole programmeerimisviga, vaid statistilise modelleerimise olemuslik tunnus. Erinevalt kogenud kliinikutest, kes avalikult kahtlusi väljendavad, ei suuda suured keelemudelid ja masinõppesüsteemid oma piiranguid ära tunda. Nad annavad usutavaid vastuseid isegi siis, kui andmeid on ebapiisavalt. Meditsiinis võib usutavus ilma põhjenduseta olla ohtlik.
Kuna need süsteemid integreeritakse kliinilistesse töövoogudesse varem, mõjutavad nende väljundid üha enam järgnevaid otsuseid. Aja jooksul võivad arstid hakata soovitusi usaldama mitte nende kehtivuse, vaid normaliseeritud olemise tõttu. Hinnanguvõime nihkub järk-järgult aktiivsest arutlemisest passiivse aktsepteerimiseni. Sellistel juhtudel on „inimene suhtlusringis“ vaid sümboolne kaitsemehhanism.
Toetajad väidavad sageli, et tehisintellekt ainult „tuendab“ kliinilisi arste, mitte ei asenda neid. See kinnitus on aga nõrk. Kui tehisintellekt näitab tõhususe kasvu, kipuvad majanduslik ja institutsionaalne surve suurendama autonoomiat. Kui süsteem suudab retsepte ohutult pikendada, võidakse sellel peagi lubada neid välja kirjutada. Kui see suudab täpselt diagnoosida levinud haigusseisundeid, seatakse kahtluse alla arsti läbivaatuse vajadus. Kui see ületab kontrollitud võrdlusalustes inimesi, väheneb tolerantsus inimeste varieeruvuse suhtes.
Neid suundumusi arvestades on oluline rakendada konkreetseid kaitsemeetmeid. Näiteks võiks kohustuslik lahknevuste audit 5% tehisintellektil põhinevate otsuste puhul olla konkreetseks kontrolliks, tagades tehisintellekti soovituste ja inimeste kliiniliste hinnangute kooskõla, pakkudes samal ajal reguleerivatele asutustele ja haiglate juhatustele rakendatavaid mõõdikuid tehisintellekti integratsiooni jälgimiseks.
Need küsimused ei ole esitatud pahatahtlikult; need kerkivad loomulikult esile süsteemides, mis keskenduvad kulude piiramisele ja skaleeritavusele. Siiski viitavad need tulevikule, kus inimlik otsustusvõime muutub pigem erandiks kui normiks. Sellises stsenaariumis saavad ressurssidega inimesed jätkuvalt inimlikku ravi, samas kui teisi suunatakse automatiseeritud protsesside kaudu. Kahetasandiline meditsiin ei tulene mitte ideoloogiast, vaid optimeerimisest.
Eriti ebakindlaks muudab selle hetke selgete vastutusliinide puudumine. Kui tehisintellektil põhinev otsus kahjustab patsienti, siis kes vastutab? Kas arst teostab süsteemi nimeliselt järelevalvet? Asutus, mis selle juurutas? Müüja, kes mudeli välja õpetas? Reguleeriv asutus, mis selle kasutamise heaks kiitis? Ilma selgesõnaliste vastusteta vastutus kaob. Ja kui vastutus kaob, järgneb peagi usaldus.
Meditsiin sõltub põhimõtteliselt usaldusest. Patsiendid usaldavad oma keha, hirmud ja sageli ka elu arstide kätte. Seda usaldust ei saa üle kanda algoritmile, olenemata selle keerukusest. See põhineb kindlustundel, et kohal on inimene – keegi, kes on võimeline kuulama, kohanema ja oma tegude eest vastutama.
Tehisintellekti täielik hülgamine on ebavajalik. Mõistlikult kasutades saab tehisintellekt vähendada kontoritöö koormust, tuvastada mustreid, mis võivad inimese poolt märkamata jääda, ja toetada kliinilist otsustusprotsessi. See võimaldab arstidel pühendada rohkem aega patsiendihooldusele kui administratiivsetele ülesannetele. Selle tuleviku realiseerimine nõuab aga selget pühendumist inimliku vastutuse säilitamisele meditsiinipraktika keskmes.
„Inimese kaasamine“ peab tähendama enamat kui sümboolset järelevalvet. See peaks nõudma, et iga meditsiinilise otsuse eest vastutaks konkreetne isik, mõistaks selle põhjendust ning säilitaks nii õiguse kui ka kohustuse algoritmilisi soovitusi tühistada. See peab hõlmama ka läbipaistvust, selgitatavust ja patsiendi teadlikku nõusolekut, samuti pühendumust investeerida inimestest arstidesse, mitte asendada neid tehisintellektiga.
Peamine risk ei seisne tehisintellekti liigses võimsuses, vaid pigem institutsioonide valmisolekus vastutusest loobuda. Tõhususe ja innovatsiooni taotlemisel on oht, et meditsiinist saab tehniliselt arenenud ja administratiivselt sujuvamaks muutunud valdkond, millel puudub moraalne sisu.
Tulevikku mõeldes on oluline küsida: millist ravitsejat me näeme meie voodi kõrval aastal 2035? See küsimus nõuab kollektiivset moraalset kujutlusvõimet, mis julgustab meid kujundama tulevikku, kus inimlik vastutus ja kaastundlik hoolitsus jäävad meditsiinipraktika keskmesse. Kollektiivse tegutsemisvõime mobiliseerimine on ülioluline tagamaks, et tehisintellekti edusammud neid põhiväärtusi tugevdaksid, mitte ei õõnestaks.
Tehisintellektil pole meditsiini praktiseerimiseks luba. Kuid meditsiini kujundatakse vaikselt ümber süsteemide ümber, millel puudub moraalne kaal. Kui see protsess jätkub kontrollimatult, võime ühel päeval avastada, et arsti ei ole asendanud masin, vaid protokoll – ja et kui kahju tekib, pole kedagi, kes selle eest vastutaks.
See ei oleks edasiminek. See oleks troonist loobumine.
-
Joseph Varon, arst, on intensiivravi arst, professor ja Independent Medical Alliance'i president. Ta on kirjutanud üle 980 eelretsenseeritud publikatsiooni ja on ajakirja Journal of Independent Medicine peatoimetaja.
Vaata kõik postitused