Foto: Pexels/ Designecologist
Mākslīgā intelekta (MI) rīki pēdējo gadu laikā kļuvuši par neatņemamu ikdienas daļu, būtiski mainot, kā strādājam un dzīvojam. Katru dienu vairāk nekā 100 miljoni cilvēku visā pasaulē izmanto tādus rīkus kā “ChatGPT”, lai uzdotu vismaz miljardu jautājumu. Šīs tehnoloģijas palīdz darbā, mācībās un radošajā jomā, un to izmantošana pieaug arī Latvijā. “Ir sācies laikmets “Neuzticies, pārbaudi!”, kurā katram ir jāsaprot, ka drošība sākas ar viņu,” uzsver “Bite Latvija” iekšējās drošības procesu vadītājs Hermanis Eriņš.
“ChatGPT” un līdzīgi rīki var būt informatīvi palīgi, kas sniedz skaidrojumus un ātras atbildes, padomdevēji dokumentu un prezentāciju sagatavošanā, kā arī radoši instrumenti attēlu un video veidošanā. Tie kalpo kā nākotnes iespēju veidotāji, palīdzot apgūt jaunas prasmes, radīt inovatīvus risinājumus un paātrināt darba procesus. Taču šīs pašas tehnoloģijas spēj radīt arī dziļviltojumus – attēlus, audio un video materiālus, kas ir vizuāli un emocionāli pārliecinoši, un pilnībā nepatiesi.
“Arvien biežāk mēs redzam, ka cilvēki izmanto mākslīgā intelekta rīkus bez pietiekamas izpratnes par drošības riskiem. Personas kodi, paroles, banku vai veselības dati un uzņēmuma konfidenciāli dokumenti nav piemēroti šādām platformām. ChatGPT ir lielisks palīgs ideju ģenerēšanā un skaidrojumu sagatavošanā, tomēr tas nav paredzēts sensitīvas informācijas apstrādei un glabāšanai. Drošība joprojām ir lietotāju rokās – tas nozīmē, ka katram pašam jāizvērtē, kāda informācija tiek ievadīta šādās sistēmās, jāsaglabā kritiska domāšana un jāatceras, ka neviena tehnoloģija neatceļ personīgo atbildību. Tikai apzināta un piesardzīga rīcība pasargā no riskiem, ko rada neuzmanīga datu ievadīšana digitālajā vidē,” uzsver “Bite Latvija” iekšējās drošības procesu vadītājs Hermanis Eriņš.
Krāpnieku jaunie rīki – dziļviltojumi un viltus zvani
Arī krāpnieki steidz izmantot mākslīgo intelektu savos nolūkos. Viens no straujāk augošajiem draudiem ir tā sauktie spoof calls jeb krāpnieciskie zvani. “Ar MI palīdzību iespējams piezvanīt no jebkura numura, runāt latviešu vai citā valodā, izmantot balss viltošanu un radīt sajūtu, ka runā pazīstama persona. Bieži vien zvans tiek veikts ar robota palīdzību un iepriekš sagatavotu tekstu, taču arvien biežāk tiek izmantota balss klonēšana – tehnoloģija, kas ļauj atdarināt jebkura cilvēka balsi. Šādā veidā krāpnieki izliekas par radiniekiem vai kolēģiem, manipulē ar emocijām, piemēram, raudot un lūdzot palīdzību, vai arī rada uzticību, zvanot it kā bankas, policijas vai uzņēmuma vārdā,” norāda H. Eriņš.
Viņš skaidro, ka shēma ir vienkārša – no publiski pieejamiem avotiem, piemēram, vadītāju intervijām, podkāstiem vai ierakstiem sociālajos medijos, tiek iegūts balss paraugs. Pietiek ar aptuveni trīsdesmit sekunžu ierakstu, lai ar balss sintēzes rīkiem, varētu izveidot pārliecinošu balss klonu. Viltus ziņa tiek nogādāta kā balss pasts vai tiešs zvans, kurā darbiniekam tiek lūgts apstiprināt naudas pārskaitījumu, izpaust piekļuves datus vai apiet ierastās finanšu procedūras. “Dziļviltojuma jeb deepfake balss audio izslēdz cilvēka instinktu šaubīties. Mēs esam psiholoģiski noskaņoti uzticēties pazīstamām balsīm, un tieši tāpēc šī taktika ir baisi efektīva,” skaidro Eriņš.
Papildu balsij un video arvien biežāk tiek izmantoti arī mākslīgā intelekta ģenerēti teksti – čatboti un e-pasti. Ar “ChatGPT” vai līdzīgiem rīkiem iespējams radīt pārliecinošas sarakstes, kas ilgst pat vairākas nedēļas un rada ilūziju par patiesu personīgu interesi. Uzņēmumu gadījumā MI rīki tiek izmantoti, lai sagatavotu bez kļūdām uzrakstītus, korporatīvajā stilā veidotus e-pastus, kas šķietami nāk no sadarbības partneriem vai valsts iestādēm. Šādas vēstules palielina risku, ka darbinieks atvērs kaitīgu pielikumu vai veiks steidzamu naudas pārskaitījumu.
Kā pasargāt sevi digitālajā laikmetā
Šīs tendences kļūst aktuālas globālā mērogā. Visizplatītākie šobrīd ir attēlu dziļviltojumi, kuros personas seja tiek izmantota viltus reklāmās. Audio dziļviltojumi ierindojas otrajā vietā, savukārt video viltojumi – trešajā, arvien biežāk parādoties kā manipulēti klipi vai pat tiešsaistes videokonferences ar viltotiem dalībniekiem.
Eriņš norāda, ka laikmets “neuzticies, bet pārbaudi” ir sācies. “Balss klonēšana vairs nav teorija – tā ir pieejama ikvienam ar minimālām tehniskām zināšanām un publiski pieejamiem rīkiem. Tas padara sociālo inženieriju, kas balstīta uz balsi, daudz bīstamāku nekā tradicionālos pikšķerēšanas e-pastus.”
Tomēr viņš arī uzsver, ka, lai pasargātu sevi, svarīgi saglabāt mieru un neuzticēties tikai balsij vai attēlam. Nedrīkst pieņemt lēmumus steigā – vienmēr jāpārbauda informācija vairākos neatkarīgos un uzticamos kanālos. Ģimenē un darba vietā ieteicams vienoties par atslēgas vārdiem vai drošības frāzēm, kas palīdz pārliecināties par zvanītāja identitāti. Tāpat būtiski izglītot ģimeni, draugus un kolēģus par riskiem, kas saistīti ar MI, un apzināties, ka tehnoloģiju drošība sākas ar lietotāja atbildību un zināšanām.
“Mākslīgais intelekts ir nākotnes instruments, kas var palīdzēt mums kļūt efektīvākiem un radošākiem, taču tikai tad, ja to izmantojam atbildīgi un esam zinoši par riskiem. Nevar pieļaut, ka krāpnieki zina par MI vairāk, nekā sabiedrība kopumā. Jo vairāk mēs par šiem riskiem runāsim, jo mazāk cilvēku nonāks krāpnieku lamatās. Latvijas iedzīvotājiem ir visas iespējas kļūt par digitāli izglītotu sabiedrību, kas prot izmantot inovācijas drošā un atbildīgā veidā,” rezumē Hermanis Eriņš.
Lasiet arī:
Rēzija Kalniņa: Man jāiepazīst arī sava ēnas puse, kas nemaz nav tik skaista
RD rakstniecei Gundegai Repšei liek izvākties no beztermiņa īres dzīvokļa
Nedēļas horoskops: 5. -11. septembris
Elīna Gluzunova: Es nekultivēju botulīntoksīna injekcijas, es tās dievinu!
Sapņi piepildās – Markus Riva rada tituldziesmu pašmāju seriālam
Par spīti nesaskaņām ar VNĪ latviešu klubs Daugavpilī Artilērijas pagrabi atsācis darbību