I deja par mākslīgu superintelektu, kas pārņem cilvēci, ir gandrīz tikpat veca kā pati mākslīgā intelekta ideja. Lai gan domājoši un radoši roboti kādam var likties kaut kas tāls, tehnoloģiju attīstība mūsu gadsimtā ir bijusi ļoti ātra, vienlaikus mainoties arī sabiedrības attieksmei pret mākslīgo intelektu. Tā 2016. gada februārī Honkongas zinātnieku izstrādātajam projektam Sofija Saūda Arābija piešķīra pilsonību, turklāt neraugoties uz to, ka pirmās prezentācijas laikā Sofija uz jautājumu "vai tu vēlies nogalināt cilvēkus?" atbildēja ar vēsu: "Labi, es iznīcināšu cilvēkus." Lai gan šis gadījums uztverams vairāk kā medijos izplatījusies detaļa, nevis reāla problēma, tas tomēr parāda trīs fundamentālas mūsu laikmeta iezīmes: centienus radīt cilvēkam līdzīgi domājošu mākslīgo intelektu, risku kaut kam šajā procesā noiet greizi un sabiedrības bažas par šo tehnoloģiju ietekmi nākotnē.
Bet cik tālu tad esam jautājumā par mūsdienu mākslīgā intelekta iespējām? Latvijas Universitātes datorikas profesors Andris Ambainis skaidro: pašlaik zinātne no pilnvērtīga mākslīgā intelekta izstrādes vēl joprojām ir diezgan tālu. Mākslīgā intelekta attīstība ir sasniegusi punktu, kur tiek mēģināts panākt, ka tas stingri iepriekšnoteikta algoritma ietvaros mēģina pielāgot kādus parametrus, veidojot mākslīgo neironu tīklu. Ko tas īsti nozīmē? Pamatā tas ir saistīts ar automatizāciju un tās sniegtajām iespējām, kā arī iepriekš nepieredzētu datu daudzuma apstrādi. Piemērus tam varam jau redzēt ikdienā, piemēram, Ķīnā izveidotas sistēmas, kas ļauj atpazīt cilvēkus protesta akcijās, – šādu iespēju sniedzis tieši mākslīgais intelekts, un bez tā tas nebūtu reāli. Nākamais solis būtu iemācīties radīt domāšanas struktūru, taču līdz tam vēl ir tāls ceļš ejams.
Lai gan scenārijs, kurā nesavaldīts mākslīgais intelekts izraisa cilvēces galu veidā, kā to attēlo, piemēram, visiem labi pazīstamās filmas The Matrix/ Matrikss vai The Terminator/Terminators vai kulta seriāls Battlestar Galactica/ Zvaigžņu kuģis Galaktika, vēl ir tālu, otra, daudz reālāka problēma ir mākslīgā intelekta tehnoloģiju ieplūšana militāro tehnoloģiju jomā. 2017. gadā pasauli pāršalca sižets, kas bija redzams ANO konvencionālo ieroču kontroles sēdē un kas vairs neizskatījās pēc zinātniskās fantastikas: Bērkli universitātes profesors Stjuarts Rasels prezentēja par plaukstu mazāku dronu, kas spējīgs nest vienu gramu sprāgstvielas jeb pietiekami daudz, lai nogalinātu cilvēku, un spēj darboties spietos. Profesors nepiedāvāja pārdot jaunu ieroču sistēmu, bet gan brīdināja, kā modernās tehnoloģijas var radīt tā saucamo dronu – slepkavu jeb slaughterbots spietus.
Kā kontrolēt superintelektu
Mākslīgā intelekta izpētes žurnālā (Journal of Artificial Intelligence Research) šī gada sākumā pieci ievērojami mākslīgā intelekta pētnieki no Spānijas, Austrālijas, ASV un Lielbritānijas publicēja brīdinošu rakstu Superintelekts nevar tikt savaldīts. Skaitļošanas teorijas mācība, kurā brīdināja: gadījumā, ja cilvēce radīs mākslīgo intelektu, kura spējas pārspēj Homo sapiens varēšanu, cilvēkam nebūs iespējams radīt sistēmu, kas šādu mākslīgo intelektu varētu iegrožot.
Pašlaik tiek teoretizēts, ka pastāv divas iespējas, kā kontrolēt superintelektu. Pirmkārt, to būtu iespējams iekļaut ierobežotā telpā, kas ir nošķirta no pārējās pasaules, taču tas šādu sistēmu vienlaicīgi ievērojami novājinātu un samazinātu arī tās spējas izpildīt dotos uzdevumus. Otra – šķietami valdzinošāka – ideja ir pieņemt, ka mākslīgā intelekta algoritmos ir jāiekļauj klauzulas, kas nepieļauj pārliekas tā varenības rašanos. Tiesa, šādu noteikumu radīšana varētu būt sarežģītāka, nekā pirmajā mirklī šķiet.
Iemesls šādam secinājumam ir vienkāršs: nav iespējams radīt cilvēkam aptveramu superintelektu savaldīšanas sistēmu, ja tai jāsavalda superintelekts, kas pārspēj cilvēka spējas. Problēma šajā gadījumā rodas nespējā paredzēt, kā sistēma risinās savus uzdevumus. Piemēram, kā sistēma rīkosies, ja tai tiks uzdots nenodarīt kaitējumu cilvēkiem? Pētījuma autori ar matemātiskiem aprēķiniem pierāda: lai gan šāds uzdevums mums liekas vienkāršs, algoritmam, kas to saprot tikai uzdevuma, ne morāles līmenī, var būt cita izpratne par tā risināšanas principiem.
Daļa šīs problēmas ir saistīta ar tā saucamo iestrēgšanas problēmu, ko jau 1936. gadā izvirzīja par mākslīgā intelekta idejas tēvu sauktais britu zinātnieks Alans Tjūrings. Tā nosaka, ka nav iespējams noteikt, vai programma, kam ir dots konkrēts uzdevums, izbeigs savu darbību brīdī, kad ir sasniegusi mērķi, vai arī turpinās nebeidzamu ciklu, mēģinot mērķi sasniegt, t. i., rezultāts var būt neparedzams.
Pieņemot, ka superintelekts spētu iekļaut sevī jebkuru mums zināmo datorprogrammu vai koda rindu, nav iespējams noteikt, vai programma, kas uzrakstīta, lai nepieļautu nodarīt ļaunu cilvēcei vai iznīcināt pasauli, izpildīs savu mērķi un līdz ar to arī tiešām beigs strādāt un, vairs neredzot draudus, apstāsies, vai tomēr paliks aktīvā stāvoklī. Turklāt jāņem vērā, ka mākslīgā intelekta attīstība var norisināties mums negaidītā veidā, t. i., zinātne var palaist garām mirkli, kad mākslīgais intelekts vairs nav tikai ļoti jaudīga, uz noteiktiem, kontrolējamiem principiem balstīta sistēma.
Revolūcija jau šajā gadsimtā
Viens no raksta autoriem Ijads Rahvans no Maksa Planka institūta norāda: šādā situācijā drošības algoritms kļūst neefektīvs. Mākslīgajam superintelektam caur internetu varētu būt pieeja ikvienai pasaules datorsistēmai, un tas spētu pārrakstīt jebkuru sava mērķa sasniegšanai traucējošu rindu. Šīs pašas iestādes Cilvēces attīstības institūta Cilvēku un mašīnu pētniecības centra vadītājs Manuels Sebrjans raksta: superintelekta vadīta mašīna, kas pārvalda pasauli, izklausās pēc zinātniskās fantastikas, taču tai pašā laikā jau šodien ir mašīnas, kas atsevišķus nozīmīgus uzdevumus veic patstāvīgi, un mums nav pilnīgas skaidrības, kā tās dara savu darbu.
Komentējot šo jautājumu, Ambainis SestDienai atzīst, ka paredz biedējošu nākotni. Pēc profesora domām, mašīnu revolūcija no mūsdienām ir ne tālāk, kā mūsdienas ir no 1950. gada. "Šajā gadījumā gan jādomā nevis par situāciju, kurā mašīnas pārņem varu, bet gan situāciju, kurā tās bez konkrēta mērķa iziet ārpus kontroles, piemēram, attīstot mākslīgo intelektu kā ieroci. Šajā gadījumā mākslīgais intelekts, piemēram, varētu izpildīt sev ieprogrammētos mērķus, taču to darīt iepriekš nepieredzētā mērogā," uzsver vadošais Latvijas mākslīgā intelekta pētnieks. Tiesa, par spīti mūsdienu kultūrā iesakņotiem stereotipiem par pasaules varas pārņemšanu zinātniskās fantastikas tradīciju garā un cilvēces karu pret mašīnām, mūsdienu zinātnieki izvirza citas problēmas. Kā piemēru var minēt teorētiskus scenārijus, kuros mākslīgais intelekts izpilda uzdevumu novērst HIV izplatību, izlemjot likvidēt visus, kas ir inficēti, vai arī autonoms drons izlemj, ka vienīgā iespēja, kā iznīcināt mērķi, ir to likvidēt ar visu pilsētu tā tuvumā. Šajos apstākļos viena sistēma var sākt cīņu pret otru, kas netieši var radīt kaitējumu visai cilvēcei.
Kā vienkāršāku piemēru divu sistēmu iespējamajai sadursmei Ambainis vēl min jau tagad notiekošos eksperimentus, kuros tiek mēģināts izmantot mākslīgā intelekta iespējas, cenšoties optimizēt uzņēmumu darbību un uztaustīt tos punktus, kur jāiegulda lielāki resursi. Tas aktualizē jautājumu: kas notiks gadījumā, ja mākslīgais intelekts dos grūdienu tai organizācijas daļai, kas dara ko neētisku vai nelikumīgu tāpēc, ka tas var nest peļņu?
Zinātnisks "klibaits"?
Lai gan ar līdzīgām pārdomām par potenciālu mākslīgā intelekta bīstamību pēdējos gados klajā nākuši daudzi zinātnieki, pašlaik tā tomēr jāuztver kā laicīga brīdinājuma sistēma – mierina Latvijas Universitātes profesors, kurš skaidro: lai gan robeža starp mākslīgo intelektu un lielas jaudas sistēmām patiešām ir izplūdusi, pašreiz tas, ko mēs saprotam ar mākslīgo intelektu, ir nevis mašīnmācīšanās, bet datorprogrammu spēja atrast likumsakarības tādā datu daudzumā, kas cilvēkam ir neaptverams. "Ja uz lieljaudas datora pēc simtgadīgām metodēm tiek risināti diferenciālvienādojumi, pat ja tas prasa milzīgas skaitļošanas jaudas, tas nav mākslīgais intelekts. Ja no 10 tūkstošiem valodas piemēru tiek mēģināts radīt valodas likumsakarību – tas jau ir mākslīgais intelekts. Otra lieta, kas atšķir mākslīgo intelektu, ir pielietojuma joma – pašlaik mākslīgais intelekts tiek saistīts ar tām jomām, kur izteikti ir vajadzīgs cilvēka intelekts, piemēram, attēlu vai valodas apstrāde."
Jautāts, vai sensacionāli paziņojumi nav zinātnisks māneklis ar vēlmi pievērst sev uzmanību, Ambainis to drīzāk saista ar domāšanu par tālu, bet tomēr nākotni. Kā piemēru šajā gadījumā profesors min mākslīgā intelekta futūristu Mārvinu Minski un citu pagājušā gadsimta sešdesmito gadu klasiķu idejas, kas daļēji ir īstenojušās tikai 40 vai 60 gadu vēlāk. Tas, ko 1980. gadā sauca par mākslīgo intelektu, ir tālu atpalicis no šodienas izpratnes. Proti, septiņdesmitajos gados tika runāts par ierīcēm, kas atbalstītu mācīšanās procesu, bet piecdesmit gadu vēlāk, mūsdienās, planšetdatori ir kļuvuši par neatsveramu mācību procesa sastāvdaļu.
Taču Ambainis jau šodien aicina pievērst uzmanību tam, kā mākslīgā intelekta tehnoloģijas tiek lietotas jomās, kas saistītas ar kritisko infrastruktūru. Šajā gadījumā ir jāuztraucas ne tik daudz par to, vai kādas mākslīgā intelekta tehnoloģijas varētu pārņemt šīs sistēmas, bet gan par iepriekš neparedzētu to darbību noteiktos apstākļos, piemēram, šīm sistēmām sākot optimizēt nepareizos lielumus kādas iepriekš nepamanītas programmēšanas kļūdas dēļ.
Bīstamas, taču ne cilvēcei
Joma, kas šajā ziņā varētu uztraukt daudzus, ir ieroču saslēgšana ar mākslīgo intelektu. Diskusija par autonomajām ieroču sistēmām (tātad sistēmām, kas pašas spēj pieņemt lēmumu, vai uzbrukums ir nepieciešams) patlaban kļūst aizvien pamanāmāka. Piemēram, pērn Vācijā diskusijas par šādu sistēmu ieviešanu izraisīja karstas debates Bundestāgā. Šādu sistēmu pretinieki uzsver, ka lēmums attīstīt šīs tehnoloģijas atvērs Pandoras lādi – tiek teoretizēts par draudiem, ko varētu izraisīt, piemēram, šādu spietu palaišana virs pilsētām. Ierīces spēja pašai pieņemt lēmumu ir izšķiroša – atšķirība starp tālvadības dronu un autonomu ieroču sistēmu ir tāda, ka pat tajā gadījumā, ja ASV ražojuma MQ-9 Reaper drons iznīcina teroristus simtiem kilometru no bāzes, lēmumu par šāvienu tomēr ir pieņēmis un izpildījis cilvēks, kuru vismaz teorētiski vada arī morāli un ētiski apsvērumi. Autonomai sistēmai šādu ierobežojumu nav.
Jau 2015. gadā Buenosairesas mākslīgā intelekta konferencē tūkstoš pētnieku, tai skaitā Stīvens Hokings, Īlons Masks un Skype dibinātājs Jāns Tallins, parakstīja petīciju, aicinot aizliegt autonomās letālās ieroču sistēmas, un tā jau ir sasniegusi ANO. Tiesa, parasti šādas petīcijas paraksta mazās valstis, savukārt lielvalstis par to daudz neuztraucas (tikai viens piemērs – tā tas notika kājnieku mīnu aizliegšanas kampaņas laikā, šo konvenciju vēl joprojām nav ratificējušas ne ASV, ne Krievija), un arī šajā gadījumā scenārijs ir līdzīgs – 2019. gadā iniciatīvu apturēja Izraēla, Krievija, Austrālija, Apvienotā Karaliste un ASV.
Tomēr Ambainis autonomo ieroču attīstību redz kā neizbēgamu un grūti kontrolējamu. Autonomās sistēmas nav spējīgas iznīcināt cilvēci, taču tās noteikti ir spējīgas radīt draudus. Pašreizējās tehnoloģijas pieļauj šādu spietu radīšanu. Viena lieta ir gribēt aizliegt autonomos ieročus, cita – to reāli izdarīt un kontrolēt kaut vai tādā līmenī, vai konkrētā ierīce ir patiešām autonoma, vai to ar tālvadību tomēr kontrolē cilvēks. Atomieroču vai ķīmisko ieroču gadījumā ir iespējams uziet pēdas, kas ļauj atrast to avotu, savukārt dronu gadījumā tās ir daudz nemanāmākas. "Jebkurā gadījumā – par to, kas būs aktuāls pēc trīsdesmit četrdesmit gadiem, ir jādomā šodien," uzsver Ambainis.