Skip to main content

Ēnu AI – nopietns drošības risks uzņēmumu IT sistēmās, atklāj pētījums

Jaunākie pētījuma dati rada satraukumu starp IT drošības speciālistiem – gandrīz visi respondentu atbildējuši, ka neautorizēta mākslīgā intelekta (AI) lietošana darbinieku vidū ir kļuvusi par vienu no nozīmīgākajām uzņēmumu drošības problēmām. Šo parādību profesionāļi dēvē par “Ēnu AI” – analoģiski jau pazīstamajam “Ēnu IT” fenomenam.

Kas ir Ēnu AI un kāpēc tas rada bažas?

Ēnu AI attiecas uz situācijām, kad darbinieki izmanto AI rīkus bez IT departamenta atļaujas vai uzraudzības. Tas var būt viss, sākot no ChatGPT lietošanas biznesa dokumentu sagatavošanai līdz neapstiprinātu AI algoritmu ieviešanai uzņēmuma datu apstrādes procesos.

Pētījuma galvenie atklājumi

  • 96% IT līderu atzīst Ēnu AI kā nozīmīgu drošības draudu
  • 78% uzņēmumu ir reģistrējuši vismaz vienu Ēnu AI lietošanas gadījumu pēdējo 12 mēnešu laikā
  • Vidēji uzņēmumi novērtē, ka 28% no visiem AI lietojumiem notiek bez oficiālas atļaujas
  • Tikai 39% organizāciju ir izstrādājušas oficiālas politikas par AI lietošanu darbā

Kādi riski slēpjas Ēnu AI lietošanā?

Nekontrolēta AI lietošana uzņēmumos rada vairākus būtiskus draudus:

Datu noplūdes risks

Darbinieki, izmantojot publiski pieejamus AI rīkus, bieži neapzinās, ka ievadītā informācija var tikt saglabāta un turpmāk izmantota trešo pušu interesēs. Konfidenciāli uzņēmuma dati, klientu informācija vai patenti var nonākt nevēlamās rokās.

Atbilstības normu pārkāpumi

Daudzos nozarēs (piemēram, finansēs vai veselības aprūpē) pastāv stingri regulējumi par datu apstrādi. Neapzināta AI lietošana var novest pie normatīvo prasību pārkāpumiem un iespējamiem sodiem.

Kvalitātes un precizitātes problēmas

Bez pareizas uzraudzības, AI ģenerētā satura precizitāte paliek neparbaudīta. Tas var izraisīt kļūdainus lēmumus, juridisku saturu vai tehniski nepareizus risinājumus.

Kā uzņēmumi var cīnīties pret Ēnu AI?

Profesionāļi iesaka vairāku līmeņu pieeju šīs problēmas risināšanai:

1. Izglītība un apzināšana

Darbiniekiem ir jāskaidro ne tikai riski, bet arī oficiāli apstiprinātie AI rīki, kurus viņi var droši izmantot. Regulāri apmācību veikšana var ievērojami samazināt kārdinājumu izmantot neapstiprinātus risinājumus.

2. Tehniskie kontroles mehānismi

IT departamentiem vajadzētu ievērot:

  • Tīkla līmeņa bloķēšanu neautorizētiem AI pakalpojumiem
  • Datu zaudēšanas novēršanas (DLP) sistēmu ieviešanu
  • Lietotāju aktivitāšu uzraudzību

3. Oficiālu AI politikas izstrāde

Skaidri noteikti noteikumi par to, kuri AI rīki ir atļauti, kādos nolūkos tos var izmantot un kādi dati var tikt ar tiem apstrādāti, ir būtisks solis uzņēmuma drošības nodrošināšanā.

Nākotnes perspektīvas

AI tehnoloģiju attīstība turpinās eksponenciāli, un uzņēmumiem būs jāpielāgojas šiem pārmaiņiem. Eksperti prognozē, ka nākamajos gados mēs redzēsim:

  • Vairāk specializētu uzņēmuma AI risinājumu, kas atbilst drošības un atbilstības prasībām
  • Integrētākus risinājumus, kas apvieno AI iespējas ar pastāvošām biznesa sistēmām
  • Stingrāku regulējumu par AI lietošanu uzņēmējdarbībā

Kopumā, lai gan Ēnu AI pašlaik rada ievērojamas bažas, pareiza pieeja un proaktīvas darbības var pārvērst šo izaicinājumu par iespēju uzlabot uzņēmumu drošību un efektivitāti. Galvenais ir atrast līdzsvaru starp inovācijām un risku pārvaldību.

Avots: https://aibusiness.com/responsible-ai/shadow-ai-a-major-concern-across-enterprise-it-study-finds

Atbildēt

Jūsu e-pasta adrese netiks publicēta. Obligātie lauki ir atzīmēti kā *