Trumpā laikā ieceltais kiberdrošības vadītājs iesludinājis slepenus valdības dokumentus ChatGPT
Diemžēl, šis nav sižets par kādu spraigu špionu trilleri, bet par ļoti reālu incidentu, kas izgaismojis bīstamus drošības pārkāpumus ASV valdības augstākajos līmeņos. Pēc iekšējiem avotiem un mediju atskaitēm, Džoels Kārtlends, Donalda Trumpa prezidentūras laikā ieceltais Iekšlietu departamenta (DHS) kiberdrošības un infrastruktūras aģentūras (CISA) *pagaidu* direktors, ir izmantojis OpenAI chatbotu ChatGPT, lai apstrādātu jutīgus valdības dokumentus. Šī darbība ir izraisījusi iekšēju izmeklēšanu, kuras mērķis ir noteikt, vai valsts drošībai ir nodarīts kaitējums.
Kas tieši notika? Kā valdības dokumenti nonāca chatbotā?
Saskaņā ar ziņojumiem, incidents notika Dž. Kārtlenda darbības laikā CISA vadītāja amatā. Viņš, meklējot efektīvākus veidus, kā apstrādāt lielu datu apjomu vai sagatavot kādu materiālu, izlēma izmantot populāro mākslīgā intelekta (MI) rīku ChatGPT.
Problēma slēpjas tajā, ka viņš šim publiski pieejamam AI asistentam iesludināja materiālus, kas tika klasificēti kā “jutīgi” un “konfidenciāli”. Šajos dokumentos, iespējams, bija informācija par infrastruktūras aizsardzību, iekšējiem procesiem vai citām slepenām darbībām. ChatGPT, tāpat kā daudzi citi MI modeļi, saglabā lietotāju ievadi, lai uzlabotu savu apmācību, kas nozīmē, ka šī informācija faktiski nonāca OpenAI serveros un kļuva pieejama tās izstrādātājiem.
Kāpēc tas ir tik nopietns drošības pārkāpums?
Šīs kļūdas sekas ir daudzslāņainas un ļoti nopietnas:
1. **Konfidencialitātes zaudēšana:** Jutīga valsts informācija tika pārsūtīta trešās puses komerckompānijai (OpenAI) bez atbilstošām drošības pārbaudēm un protokoliem. Valdības dokumenti vairs nav tikai valdības iekšienē.
2. **Pastāvīgs glabāšanas risks:** Informācija, kas nonāk ChatGPT apmācības datu kopā, var palikt tur uz nenoteiktu laiku. Pat ja tā tiks “izdzēsta”, nav iespējams garantēt, ka tā nav jau integrēta modeļa darbības pamatā.
3. **Precedents augstākajā līmenī:** Ja pat ierēdnis, kurš ir atbildīgs par valsts kiberdrošību, nepārprotami pārkāpj drošības procedūras, tas rada bīstamu precedentu un rāda sistemātisku problēmu ar izpratni par MI riskiem.
4. **Izmeklēšana un neuzticēšanās:** Iekšlietu departaments uzsācis izmeklēšanu, lai novērtētu zaudējumus. Šāds incidents grauj uzticēšanos gan starp iestādēm, gan starptautiski.
Kā ASV valdība reaģēja? Iekšējā izmeklēšana un sekas
Pēc incidenta atklāšanas Iekšlietu departamenta (DHS) inspektora ģenerāļa birojs uzsāka rūpīgu izmeklēšanu. Galvenie jautājumi, uz kuriem tiek meklētas atbildes, ir:
* Kāda veida informācija tieši tika nosūtīta?
* Kāds ir šīs informācijas konfidencialitātes līmenis?
* Vai no šī pārkāpuma ir radies faktisks kaitējums valsts drošībai?
* Kādi ir mehānismi, lai līdzīga incidenta atkārtošanās vairs nenotiktu?
Dž. Kārtlends vairs nav CISA pagaidu direktors, taču nav oficiāli apstiprināts, vai viņa atlaišana ir tieši saistīta ar šo incidentu. Tomēr notikums ir spēcīgs signāls visai valdības aparātam.
Plašāka problēma: MI rīku lietošana valdības iestādēs
Šis gadījums ir tikai aisberga galotne. Visā pasaulē valdības iestādes ar entuziasmu izpēta, kā mākslīgais intelekts var palīdzēt optimizēt darbu. Taču trūkst vienotu, obligātu un stingru drošības vadlīniju par to, **kā** šos rīkus drīkst lietot.
* **Vai drīkst lietot publiski pieejamus chatbotus?** Atbilde, pēc šī incidenta, ir skaidra – nē, ja darbs saistīts ar jebkāda veida konfidenciālu datu apstrādi.
* **Kurš atbild par šādu kļūdu?** Individuāls darbinieks vai sistēma, kas neiespējoja šādu darbību?
* **Vai nepieciešami valsts aprobēti MI rīki?** Daudzi eksperti uzstāj, ka valdībām ir jāizstrādā vai jāiegādājas savi, pilnībā kontrolēti un droši MI risinājumi, kas darbojas slēgtā vidē.
Mācības un nākotnes perspektīvas: Kā aizsargāt valsts noslēpumus AI laikmetā?
Trumpā laikā notikušais incidents ir dārga mācība visām valstīm, tostarp Latvijai. Tas uzsver nepieciešamību:
1. **Izveidot skaidrus un obligātus protokolus:** Katrai iestādei ir nepieciešamas rakstiskas vadlīnijas par to, kādus MI rīkus drīkst lietot, ar kādiem datiem un kādos apstākļos.
2. **Ieviest tehniskus ierobežojumus:** Tīkliem un ierīcēm jābūt konfigurētiem tā, lai būtu bloķēta piekļuve publiskiem AI rīkiem no darba stacijām, kurās apstrādāta konfidenciāla informācija.
3. **Veikt pastāvīgu apmācību:** Darbinieki jāapdrina ne tikai par tradicionālo kiberdrošību, bet arī par īpašajiem riskiem, ko rada neapdomīga MI lietošana. Viņiem jāsaprot, ka ChatGPT nav tikai “gudrāka Google meklētājprogramma”.
4. **Attīstīt suverēnus risinājumus:** Ilgtermiņā valsts drošības intereses prasa investīcijas valsts kontrolētos tehnoloģiskos risinājumos, lai nepaliktu atkarībām no starptautisku komerckompāniju produktiem.
Šis stāsts parāda, ka pat augstākajos amatos var pastāvēt bīstama naivitate vai nepietiekama izpratne par mūsdienu tehnoloģiju riskiem. Kiberdrošība sākas ne tikai ar ugunsmūriem un šifrēšanu, bet arī ar izpratni par to, ka ērtais chatbots var būt vistiešākais ceļš, kā valsts noslēpumi nonāk ne tīrās rokās. ASV pašreizējā izmeklēšana noteikti radīs stingrākus noteikumus, kas ietekmēs MI lietošanas praksi valdībās visā pasaulē.