Mākslīgais intelekts sabiedrības veselībā

PĒTERIS APINIS, ārsts

Jēdzienu apvienojums – sabiedrības veselība un mākslīgais intelekts Latvijas Veselības ministrijā un vispār Latvijas politikā ir svešs. Tiesa, izskaidrot šo vārdu kompilāciju nav viegli vai vismaz – nav īsi. Tā nu atzīstu, ka raksts būs pārlieku garš ziedonim ar sauli, zaļām lapiņām dabā un brīvdienām. Un tomēr – cerībā uz Latvijas lasītāju interesi, mēģināšu apkopot – kādas ir mākslīgā intelekta iespējas un nākotnes paradigmas sabiedrības veselībā. 

Bills Geits, pavērojis mākslīgā intelekta spējas laboratorijas zinātnē un radioloģisko izmeklējumu atšifrēšanā, paziņoja, ka ārsta darbs drīz vairs nebūšot vajadzīgs, jo visu paveikšot mākslīgais intelekts. Tiesa, arī Geitsam jau šogad sitīs septiņdesmito dzimšanas dienu, un ne viss, ko viņš saka, ir par pilnu ņemams. Ne tikai Bills Geits, bet daudzi citi, īpaši tie, kas lasa lekcijas vai konferencēs diskutē, mēdz paust, ka mākslīgais intelekts varētu revolucionāri mainīt veselības aprūpes sistēmas. Tas varētu ātri analizēt lielas un sarežģītas datu kopas, sniegt pielāgotus ieteikumus, atvieglot lēmumu pieņemšanu un uzlabot daudzu tādu uzdevumu efektivitāti, kas saistīti ar datu, teksta vai attēlu apstrādi. Šīs iespējas ir piesaistījušas politikas veidotāju uzmanību starptautiskā līmenī. 

Patiesībā – mākslīgā intelekta priekšrocības mēdz būt pārspīlētas, bet riski –- nenovērtēti. Šie riski ietver iespējamus datu privātuma pārkāpumus, rezultātu nepareizu interpretāciju, aizspriedumu nostiprināšanos un risku, ka profesionāļi pārāk paļausies uz tehnoloģijām, kas novedīs pie kritiski svarīgu prasmju mazināšanās. Vienkāršoti (vismaz šobaltdien) mākslīgais intelekts medicīnā spēj atgremot to informāciju, ko ārsti internetā ir ievadījuši, tādēļ to var izmantot, lai atbalstītu sabiedrības veselības uzraudzību, epidemioloģiskos pētījumus, komunikāciju, resursu piešķiršanu un citus lēmumu pieņemšanas veidus. Tas var arī uzlabot produktivitāti sabiedrības veselības ikdienas darbā. Pavisam tuvā nākotnē mākslīgajam intelektam ir potenciāls revolucionizēt sabiedrības veselības praksi un pētniecību. 

Uzreiz jānorāda, ka mākslīgā intelekta ieviešana nebūt nav tik vienkārša, jo tā saistās ar taisnīgumu, atbildību, datu konfidencialitāti, stabilas digitālās infrastruktūras nepieciešamību un darbaspēka prasmēm. Vismaz šobaltdien nav stabila tiesiskā regulējuma, kas aptvertu attiecīgo tehnoloģiju dzīves ciklu, kas spētu veicināt ētisku mākslīgā intelekta izmantošanu, izmantojot skaidras pamatnostādnes, kas atbilst cilvēktiesībām un sabiedrības labumam, kā arī – ņemot vērā mākslīgā intelekta ietekmi uz vidi.

Pasaules Veselības organizācija ir definējusi mākslīgo intelektu veselības aprūpē kā “datorprogrammu, kas veic tādus uzdevumus, ko parasti saista ar inteliģentu būtni”. Pēdējā pusgada laikā literatūras apjoms par mākslīgā intelekta un sabiedrības veselības saistību ir pieaudzis gandrīz trīskārt, proti, literatūra par mākslīgo intelektu veselības jomā strauji paplašinās, taču literatūras pārpilnība politikas veidotājiem var būt biedējoša, jo daudz kas ir rakstīts ļoti tehniskā valodā, un atdalīt centienus no realitātes ir grūti, ja ne neiespējami. Nozīmīgi arī tas, ka veselības jomas speciālisti un programmētāji uz mākslīgā intelekta iespējām un varēšanu skatās no dažādiem skatpunktiem, ne viss, ko radījuši programmētāji kaut kādā mērā noder veselības jomas speciālistiem, bet programmētāji nemaz nesaprot sabiedrības veselību. Autors pieturas pie “The Lancet” skatpunkta, proti lielā mērā atgremo izcilu sabiedrības veselības jomas speciālistu šaubas un kritisko domāšanu par mākslīgā intelekta iespējām diagnosticēt un ārstēt pilnīgi visu. 

Lielākā daļa veselības jomas un mākslīgā intelekta apvienojošās literatūras ir veltīta veselības un medicīnas pamatzinātnēm, visvairāk jau genomikai, vai laboratorai vai radioloģiskai diagnostikai. Biotehnoloģijā mākslīgais intelekts spēj paātrināt zāļu atklāšanu, analizējot plašas genomikas, proteomikas un citu datu kopas, identificējot daudzsološus zāļu mērķus un prognozējot to efektivitāti. Mākslīgā intelekta algoritmi var atvieglot jaunu zāļu molekulu izstrādi ar precīzām īpašībām, optimizējot iedarbību un vienlaikus samazinot toksicitāti, tādējādi radot drošākus un efektīvākus medikamentus ar mazāku blakusparādību skaitu. Globālie pieņēmumi saka, ka līdz 2030. gadam gandrīz visus biofarmācijas aprēķinus veiks mākslīgais intelekts. 

Jau šobrīd mākslīgais intelekts analizē pacienta DNS, un jau tuvākajā laikā mākslīgais intelekts izstrādās personalizētus medikamentus un ārstēšanas stratēģijas, kas iezīmēs nozīmīgu lēcienu precīzijas medicīnas virzienā. Šī pieeja ne tikai sola labākus rezultātus pacientiem, bet arī paredz efektīvāku medicīnas resursu izmantošanu. Piebildīšu – precīzijas medicīna ir ļoti dārgs prieks, bet katram no mums taču gribas saņemt sev paredzētu tableti, nevis tableti, ko globālā farmācija ieprogrammējusi pārdot katram planētas iedzīvotājam. 

Globālās prognozes ir ļoti optimistiskas par ģeneratīvā mākslīgā intelekta spējām pārveidot ārsta un pacienta komunikāciju, kā arī pacientu attieksmi pret savu veselību.

Un tomēr – izskatās, ka mākslīgā intelekta lietojumam vairāk potenciāla ir sabiedrības veselības jomā. Tradicionāli sabiedrības veselības uzraudzība balstās uz datu vākšanu un analīzi, kas ir laikietilpīga un pakļauta kļūdām. Datu vākšana pārlieku bieži ir manuāla, tiek uzticēta cilvēkiem, kas neko nenojauš par veselības aprūpi, tādēļ savākto datu apjoms ievērojami atšķiras pēc tā – kā ir uzstādīts jautājums, vai – kā konkrētais intervētājs šo jautājumu ir interpretējis pats. 

Mākslīgais intelekts var uzlabot šo procesu, automatizēt datu analīzi, ātri identificēt iespējamos slimību uzliesmojumus, apkopot riskus, savlaicīgi izteikt brīdinājumus. Tiesa, tieši Covid–19 pandēmija pierādīja, ka informācijas ievades atšķirība (piemērs – kaut vai definējot – kas ir bijis nāves iemesls vecāka gadagājuma cilvēkam ar insultu un Covid–19) neļauj mākslīgajam intelektam vēl līdz šai dienai veikt analīzi par saslimstību un mirstību no Covid–19.  Šķiet, lielajās valstīs – ASV un Ķīnā, šis informācijas apkopojums bijis veiksmīgāks. ASV Slimību kontroles un profilakses centrs izmantoja mākslīgo intelektu, apvienojot datus no vairākiem avotiem, piemēram, elektroniskajiem veselības ierakstiem, sociālajiem plašsaziņas līdzekļiem, ziņu portāliem un zinātnieku apkopotās informācijas. 

Un tomēr – Covid–19 pandēmija ir radījusi iespaidu, ka nozīmīgāka mākslīgā intelekta iesaiste būtu uzraugot neinfekcijas slimību riska faktoru tendences, analizējot demogrāfiskos, uzvedības un vides datus, kā arī izmantojot šos datus plānošanā izmantotajās prognozēs. Mākslīgā intelekta spēja ātri apstrādāt lielus datu apjomus var paātrināt informācijas plūsmu. Eiropas savienības narkotisko vielu aģentūra (AUDA) veiksmīgi izmantojusi mākslīgo intelektu lai iegūtu un analizētu brīvteksta datus no tādiem avotiem kā miršanas apliecības, lai identificētu ar narkotiskām vielām saistītus nāves gadījumus krietni pirms formālā kodēšanas procesa pabeigšanas. Šāda veida analīze var ļaut sabiedrības veselības iestādēm efektīvāk reaģēt uz jauniem draudiem (tas ir jautājums, par ko nekad neko nav dzirdējis Veselības ministrs Hosams Abu Meri, kas iestājas par atsevišķu narkotisku vielu dekriminalizēšanu).

Mākslīgais intelekts var būt īpaši noderīgs uzvedības epidemioloģijā, kurā var analizēt datus no mobilajām lietotnēm un sociālajiem plašsaziņas līdzekļiem, lai izsekotu tādus veselības paradumus kā uzturs, fiziskās aktivitātes un mobilitāte. Ar mākslīgo intelektu var novērtēt to pasākumu ietekmi, kas paredzēti, lai mainītu šo uzvedību, modelētu iespējas un virzību neveselīgas uzvedības maiņai. Vēl vairāk – vairākās Eiropas valstīs mākslīgais intelekts ir veiksmīgi apkopojis datus par zāļu lietošanas līdzestību (drīzāk nelīdzestību, jo vairāk nekā puse eiropiešu zāles lieto nepareizās devās, nepareizā laikā un nepietiekamā apjomā attiecībā pret ārsta ieteikumiem). Šīs atziņas var sasaistīt ar slimību izplatību, nodrošinot visaptverošu izpratni par faktoriem, kas veicina sabiedrības veselības problēmu rašanos. 

Vēl kāds algoritms, ar kuru mākslīgais intelekts ienāk sabiedrības veselībā, ir mašīnmācīšanās. Mašīnmācīšanās algoritmi tiek izmantoti, lai iegūtu ziņas par cilvēku noskaņojumu un uzskatus no sociālo plašsaziņas līdzekļu mijiedarbības, un jāteic, ka mašīnmācīšanās algoritmi veiksmīgāk darbojas psihiskās veselības jomā. 

Globāli mākslīgais intelekts šogad pa logiem un durvīm visā pasaulē ienāk kā tērzēšanas roboti un hroniskas veselības pārvaldības lietojumprogrammas, kas balstītas uz ģeneratīvā mākslīgā intelekta algoritmiem, kuri izstrādāti īpaši pacientiem. Šādi rīki, iespējams, palīdzēs pacientiem viņu ikdienas dzīvē, atbildēs uz viņu jautājumiem un nodrošinās tulkošanu starp medicīnas žargonu un ikdienas valodu. Šādas lietotnes palīdzēs pārtulkot medicīniskās piezīmes viegli saprotamos kopsavilkumos. Neesmu tērzēšanas robotu un virtuālo asistentu fans, bet šķiet, ka arī medicīnā itin drīz šie digitālie palīgi būs pieejami 24 stundas diennaktī, 7 dienas nedēļā, piedāvājot provizorisku medicīnisko diagnostiku un veselības konsultācijas. 

Meijo klīnikā ASV, kurā izstrādāts Google Med-PaLM 2 algoritms, izteikta prognoze, ka tuvākajā nākotnē mākslīgais intelekts kļūs par pirmo kontaktpunktu veselības aprūpes sistēmā, jo pieaugošā veselības aprūpes darbinieku trūkuma dēļ gaidīšana uz cilvēku speciālistu radītu lielāku risku nekā saskarsme ar specializētu algoritmu. 

Mākslīgais intelekts kļūst multimodāls. Ja šobrīd tas gandrīz visur ir lineārs (piemēram, Latvijas traumatoloģijas un ortopēdijas slimnīcas radioloģijas nodaļā mākslīgais intelekts apstrādā viena veida datus – rentgena un vizuālās diagnostikas attēlus un itin precīzi nolasa kaulu lūzumus), tad pasaules lielākajās slimnīcās multimodāli modeļi cenšas apstrādāt un interpretēt tekstu, attēlu, audio un video vienlaikus, patiesībā kļūst par interfeisu, kas ieved ārstu mākslīgā intelekta laikmetā. Medicīna savā dziļākajā būtībā ir multimodāla, kur diagnozi nosaka ne tikai laboratorijas un vizuālās diagnostikas izmeklējumi, bet arī ārsta pieredze un intuīcija (šķiet – tieši šo īpašību vismaz tuvākajā laikā mākslīgajam intelektam nebūs). Mēs, protams, varam kliegt urravas Google multimodālajam Gemini, varam (iespējams) eksperimentēt ar to personīgās lietošanas gadījumos, bet autors nedomā, ka tas tuvākajos piecos gados nonāks reālā veselības aprūpē. 

Šajā vietā nākas pieskarties mākslīgā intelekta avatāriem (man negribas tos saukt par mākslīgo intelektu, bet par veiksmīgu modernu biznesu), kas attīstās ar apbrīnojamu ātrumu. Mākslīgais intelekts var palīdzēt optimizēt resursu sadali, bet šajā jomā domas dalās gan veselības politiķu, gan ekonomistu, gan medicīnas profesionāļu vidū. Covid–19 vakcinācijas kampaņu laikā mākslīgais intelekts analizēja demogrāfiskos datus, veselības aprūpes datus un ģeogrāfisko informāciju, lai veiksmīgāk orgaizētu vakcināciju. Šķiet, ka divas valstis, kur tas vairāk vai mazāk labi izdevās, bija Japāna un Dievidkoreja. 

Mākslīgajam intelektam ir aizvien lielāka nozīme sabiedrības veselības komunikācijā, jo tas uzlabo informācijas pielāgošanu konkrētām iedzīvotāju grupām. Ar mākslīgā intelekta rīkiem var segmentēt iedzīvotāju grupas, pamatojoties uz demogrāfiskiem un uzvedības datiem, lai palielinātu varbūtību, ka veselības aprūpes ieteikumi un investīcijas būs kultūras ziņā piemēroti un pieejami. Interesanti, ka mākslīgais intelekts šajā jomā ar ļoti atšķirīgiem rezultātiem (no ļoti veiksmīgiem Covid–19, līdz galēji neveiksmīgiem Ebolas vīrusa apkarošanas jomā) darbojās Pasaule Veselības organizācijā, cenšoties atbalstīt atsevišķas Āfrikas valstis. 

Mākslīgais intelekts mūsdienās palīdz sagatavot sabiedrības veselības aizsardzības ziņojumus vairākās valodās un dažādos veselības aizsardzības prasmju līmeņos. 

Ar mākslīgo intelektu darbināmi tērzēšanas roboti dod jaunas iespējas veselības ziņojumu izplatīšanai, šādi roboti (piemēram, Whats app lietotē) var sniegt tūlītējas atbildes, var palīdzēt kliedēt dezinformāciju un novirzīt sabiedrību uz uzticamiem resursiem. Iespējams, visvienkāršākais mākslīgā intelekta pielietojums ir rutīnas uzdevumu automatizēšana, piemēram, standarta vēstuļu ģenerēšana vai jebkuru uzdevumu, kas ietver liela apjoma informācijas (piemēram, noteikumu, vadlīniju vai zinātnisko ziņojumu) apkopošana, lai sagatavotu kodolīgus kopsavilkumus vai ieteikumus. Šo rindu autors ilggadēji apkopo veselības jomas informāciju, un atzīst – viņa raksti ir pārlieku gari, un iespējams – sarežģīti, taču mākslīgā interneta piedāvātie līdzīga rakstura informācijas avoti ir vēl mazāk saprotami. Jācer, ka jau tuvākā nākotnē mākslīgā intelekta ziņojumi būtiski samazinās administratīvo slogu sabiedrības veselības speciālistiem, ļaujot viņiem koncentrēties uz stratēģiskiem uzdevumiem, piemēram, veselības ekonomikas grāmatu rakstīšanu, politikas izstrādi un programmu īstenošanu.

Kā jau sākumā teicu, man joprojām ir vēlme pārmest mākslīgajam intelektam neobjektivitāti. Mākslīgā intelekta modeļiem bieži ir tendence uz neobjektivitāti, jo īpaši, ja tie ir apmācīti, izmantojot nereprezentatīvas datu kopas. Šī neobjektivitāte var saasināt pastāvošās atšķirības veselības jomā, jo īpaši ietekmējot marginalizētas un nelabvēlīgā situācijā esošas kopienas. Nudien – vismaz šobrīd nevaram būt pārliecināti, ka mākslīgais intelekts tiek izmantots taisnīgi. Mākslīgā intelekta sistēmas būtu jāattīsta, ņemot vērā taisnīguma aspektu, kas nodrošina, ka datos ir pienācīgi pārstāvētas dažādas iedzīvotāju grupas. Es tos sauktu par iespējamiem automatizācijas aizspriedumiem, kad mākslīgā intelekta radītie lēmumi ir privileģētāki par ietekmēto personu vēlmēm, kad algoritmā tiek iekļauts faktors, kas kalpo kā nelabvēlīgas situācijas vai stigmatizācijas marķieris, piemēram, pasta indekss. Preferences attiecībā uz to, kas ir “taisnīgais algoritms”, var būtiski atšķirties starp ieinteresētajām personām, kuras var novērtēt dažādus taisnīguma rādītājus, atspoguļojot dažādus ētikas pricipus. 

Indivīdiem, kas izmanto mākslīgo intelektu, tam būtu pietiekami jāuzticas, lai to izmantotu, bet ne tik ļoti, lai neapstrīdētu to gadījumā, ja rezultāti šķiet nepareizi. Mākslīgais intelekts pilnībā nenovērš kļūdaina apstiprinājuma risku, kad cilvēki un mākslīgais intelekts vienojas par nepareizu lēmumu. 

Īstenojot mākslīgo intelektu sabiedrības veselības jomā, būtisks ir datu privātums, jo īpaši tāpēc, ka mākslīgā intelekta sistēmās bieži datu integrēšana nāķ no dažādiem avotiem. Personas veselības datu apvienošana ar citām datu kopām palielina atkārtotas identifikācijas un stigmatizācijas risku. Pieaugošā paļaušanās uz šīm sistēmām un to rīcībā esošo datu apjoms, padara tās par pievilcīgu mērķi personām, kas cenšas iegūt izpirkuma maksu vai nozagt datus. Šis apdraudējums prasa stingru datu piekļuves kontroli un ieguldījumus kiberdrošībā, iespējams – tik pat lielus kā militārajā jomā.

Ja mākslīgajam intelektam tiks uzticēta konkrētu uzdevumu veikšana, cilvēkiem nāksies nodrošināt, ka tehnoloģija ir izstrādāta un izmantota atbilstoši. Šis konkrētais cilvēks tiks iesaistīts, nodrošinot mākslīgā intelekta lietotāju – veselības aprūpes speciālistu un pacientu aktīvu līdzdalību visos posmos, sākot no algoritma izstrādes, kad cilvēki ir iesaistīti modeļa izstrādē, testēšanā un pilnveidošanā, nodrošinot tā atbilstību ētikas un tehniskajiem standartiem, bet arī turpmāk – algoritma īstenošanas gaitā un lietošanas laikā. Īstenošanas posmā cilvēka loma pāriet uz pārraudzību, uzraugot, kā algoritms darbojas reālos scenārijos, kā arī novēršot neparedzētas problēmas, piemēram, neobjektivitāti vai kļūdas. Ikdienas lietošanā ir nepieciešama cilvēka līdzdalība, lai nodrošinātu kontroli, kad mākslīgais intelekts darbojas kā palīginstruments. 

Patiesībā jau vairums sabiedrības veselības iestāžu joprojām izmanto novecojušas veselības informācijas sistēmas, kas nav aprīkotas, lai veiktu liela apjoma datu analīzi, proti – tādu, ko prasa mākslīgais intelekts (diemžēl – Latvija izceļas negatīvajā jomā, pateicoties Andas Čakšas vārdā nosauktajai e-veselībai). Pasaules Veselības organizācijas Eiropas reģionā 2023. gadā veiktajā aptaujā par digitālo veselību konstatēts, aptuveni pusei valstu bija vienota sadarbspējas stratēģija drošai informācijas apmaiņai visā veselības aprūpes sistēmā, savukārt tikai trešdaļai valstu bija īpaša politika par lielo datu un progresīvas analītikas izmantošanu veselības jomā. Latvija, protams, nebija ne tajā veiksmīgajā pusē, ne arī tajā trešdaļā.

Sabiedrības veselības jomas darbiniekiem parasti nav prasmju, kas nepieciešamas, lai efektīvi izmantotu mākslīgā intelekta rīkus. Pieejami mācību materiāli un lektori mākslīgā intelekta jomā ir vispārēji un tukšvārdīgi, atkārtojot vispārzināmas prātulas. Savukārt, digitālās veselības izglītības rīcības plāni, politika vai stratēģija ir sasmērēti papīri, kurus līdz galam nav izlasījuši pat tie, kas tos rakstījuši. Mākslīgā intelekta pārmaiņu temps rada vajadzību pēc regulāras zināšanu atjaunināšanas, bet pašreizējās prasības attiecībā uz sabiedrības veselības aprūpes darbiniekiem (neiedomājams birokrātijas apjoms) atstāj maz laika mācībām. 

Lai izmantotu mākslīgā intelekta potenciālu sabiedrības veselības jomā, vienlaikus veicinot inovāciju, būtiski ir stingri reglamentējošie noteikumi, vienlaikus samazinot birokrātijas apjomu. Pasaules Veselības organizācija ir noteikusi principus šādu sistēmu izstrādei, bet jāteic – šīs sistēmas un principi ir pārlieku sīkumaini, sarežģīti formulēti un ikdienā grūti izmantojami. Tie attiecas uz pirmspārdošanas nodrošināšanu, veiktspējas uzraudzību, dokumentāciju un pārredzamību. Pasaules Veselības organizācija uzsver, cik svarīgi ir nepārtraukti dokumentēt sistēmas dzīves ciklu, lai nodrošinātu pārredzamību un izsekojamību, aprakstītas validācijas metodes un riska pārvaldību, kā arī – cik svarīga ir sadarbība ar ieinteresētajām personām, diemžēl šie labie principi darbojas attālināti no reālās veselības aprūpes un mākslīgā intelekta kopsadarbības.  

Eiropas savienības reglamentējošo noteikumu centrā ir 2024. gada “Likums par mākslīgo intelektu”. Tā mērķis ir nodrošināt mākslīgā intelekta uzticamību, nosakot uz risku balstītu pieeju ar dažādām prasībām un pienākumiem dažādiem mākslīgā intelekta sistēmu veidiem. Šī likuma mērķis ir veicināt mākslīgā intelekta ieviešanu un samazināt administratīvo un finansiālo slogu uzņēmumiem, lai gan tā prasību ievērošana neizbēgami radīs lielāku slogu mazajiem un vidējiem uzņēmumiem. Uz mākslīgā intelekta izmantošanu Eiropas savienībā attiecas arī Medicīnisko ierīču regula, Vispārīgā datu aizsardzības regula un plānotā (tuvākajā nākotnē) Eiropas Veselības datu telpas regula.

Lai gan stingrs tiesiskais regulējums ir būtisks, ir nepieciešams nodrošināt arī atbilstošus ētiskos aizsardzības pasākumus. Pasaules Veselības organizācija ir noteikusi virkni ētisko principu, kuriem būtu jābalstās uz mākslīgā intelekta izmantošanu, ievērojot cilvēktiesības un veicinot kopējo labumu, kam pievienotas konkrētos tematos radītas vadlīnijas. Šie principi balstās uz aizvien plašāku pētījumu kopumu par dažādu rīku, piemēram, lielo valodas modeļu izmantošanu. Arī Eiropas Padome ir izstrādājusi pamatkonvenciju, lai nodrošinātu, ka darbības mākslīgā intelekta sistēmu dzīves ciklā pilnībā atbilst cilvēktiesībām, demokrātijai un tiesiskumam, vienlaikus veicinot tehnoloģisko progresu un inovācijas. 

Šķiet, ka līdzīgus dokumentus jau radījušas dažādas globālas un kontinentālas organizācijas, piemēram, Vakcīnu alianse GAVI ir izstrādājusi vadlīnijas par mākslīgā intelekta izmantošanu vakcinācijas programmās. 

Lai gan sabiedrības veselības iestādēm ir svarīga loma tādu datu pārvaldības sistēmu veidošanā, kas nodrošina atbildību un pārredzamību, vienlaikus maksimāli palielinot datu un mākslīgā intelekta potenciālu sabiedrības labuma veicināšanai, šim mērķim būs nepieciešami pastāvīgi ieguldījumi datu infrastruktūrās, īpašu uzmanību pievēršot piekļuvei, sadarbspējai un drošībai, un tas būs iespējams tikai tad, ja starp valdībām, akadēmiskajām aprindām un privāto sektoru veidosies uzticamas stratēģiskās partnerības. Iespējams, ka komerciālie pakalpojumu sniedzēju nereti darbojas pretēji. 

Mākslīgā intelekta radītais informācijas apjoms (un daudz kas šajā rakstā arī ir mākslīgā intelekta ģenerēts un apkopots) Veselības ministrijai liek justies pārslogotai un pat apjukušai attiecībā uz pasākumiem, kuriem būtu jāpiešķir prioritāte, tai pašā laikā ministrija un tās padotības iestādes nevar ignorēt mākslīgā intelekta attīstību. 

Veselības ministrijai un Nacionālajam Veselības dienestam būtu jānodrošina, ka to darbinieki pārzina attiecīgo tiesisko un normatīvo regulējumu un principus, kas nosaka mākslīgā intelekta izmantošanu. To pieejai jābūt dinamiskai un pielāgojamai mainīgajai mākslīgā intelekta tehnoloģiju videi. Ministrijai un tās padotības iestādēm būtu jādomā par to, kā mākslīgā intelekta izstrādē un ieviešanā par prioritāti noteikt taisnīgumu, līdz minimumam samazinot risku, ka tiks pastiprināta pastāvošā nevienlīdzība veselības jomā. Apmācībai mākslīgā intelekta izmantošanā derētu būt iekļaujošai un reprezentatīvai attiecībā uz dažādām iedzīvotāju grupām (“datu solidaritāte”), atvieglojot datu izmantošanu, aizliedzot izmantošanu, kas rada augstu risku, kā arī dalot ieguvumus starp tiem, kas sniedz datus, un tiem, kas tos izmanto. Būtu jāiegulda līdzekļi sistēmās, kas spēj droši apstrādāt lielus datu apjomus, kuri nepieciešami mākslīgā intelekta izmantošanai. 

Kā jau minēju, Latvijā ministrija un sabiedrības veselības iestādes joprojām paļaujas uz novecojušām informācijas tehnoloģiju sistēmām, kas ierobežo to iespējas. Vielaikus būtu jāiegulda līdzekļi sabiedrības veselības speciālistu apmācībā mākslīgā intelekta tehnoloģiju pareizā izmantošanā un ideālā gadījumā jāatrod, jāpieņem darbā un jāsaglabā specializēts darbaspēks, kas var droši strādāt abās jomās. Šāds labs piemērs rodams Vācijas valsts sabiedrības veselības institūta Roberta Koha institūtā, kurā šobrīd izveidots Mākslīgā intelekta sabiedrības veselības pētniecības centrs. Īpaša uzmanība būtu jāpievērš datu pārvaldībai un kiberdrošībai. Būtu jāievieš sistēmas, kas aizsargā pret tādiem riskiem kā personas veselības informācijas atkārtota identificēšana vai ļaunprātīga izmantošana, taču tās ir jāpārskata, ņemot vērā mākslīgā intelekta sniegtās iespējas. Ieguldījumi stabilos kiberdrošības pasākumos ir būtiski, lai pasargātu no datu aizsardzības pārkāpumiem un nesankcionētas piekļuves, kas varētu mazināt sabiedrības uzticību mākslīgā intelekta lietojumiem. 

Veselības ministrijai un sabiedrības veselības iestādēm diskusijās par mākslīgā intelekta lomu savā darbā būtu jāiesaista plašs ieinteresēto personu loks (Latvijas valdība un atsevišķas ministrijas mēdz izveidot darba grupas no ierēdņiem, pilnīgi bez sapratnes vienā jomā, kur nu vēl tādā kombinācijā kā mākslīgais intelekts un sabiedrības veselība). Šāda līdzdalības pieeja palīdzēs nodrošināt, ka mākslīgais intelekts tiek izmantots atbildīgi un ka tā ieguvumi tiek sadalīti taisnīgi, veicinot lielāku sabiedrības uzticēšanos. 

Tas, par ko man ļoti gribējās šajā rakstā stāstīt ir kombinācija – sabiedrības veselība, vide un mākslīgais intelekts. Diemžēl pievienojot šo sadaļu (par vidi) vairāku lapaspušu garumā, es pilnībā pazaudētu lasītājus. Tādēļ kā galveno secinājumu rakstam atstāšu – par prioritāti mākslīgā intelekta izmantošanā sabiedrības veselībā jānosaka taisnīgums un ētika, izmantojot datu kopas, kas ietver dažādas iedzīvotāju grupas, izskaidrojamu mākslīgā intelekta tehnoloģiju ieviešanu, cilvēcīgu apmācību mākslīgā intelekta lietošanas pamatos un ieinteresēto personu iesaistīšana līdzdalības lēmumu pieņemšanas procesos.

Puaro.lv sadaļā “WHO IS WHO” esam apkopojuši politiķu CV. Šeit varat uzzināt, cik izglītoti ir Saeimas deputāti un  ministri, kā arī valsts amatpersonas, viņu parādsaistību apjomu, iepriekšējo pieredzi, partiju maiņu un citus sasniegumus.

Savukārt to, kurš patiesībā nosaka, kas notiek Latvijā, kurš ir ietekmīgs, kurš bagāts, bet kurš gan viens, gan otrs, uzziniet mūsu jaunajā sadaļā “Ietekme un nauda”.

Izsakiet savu viedokli komentāros un sekojiet mums  Facebook ,   Twitter,  Youtube un Instagram!

Populārākie raksti


Jūs varētu interesēt


Subscribe
Paziņot par
guest

0 Comments
jaunākie
vecākie populārākie
Inline Feedbacks
View all comments