Lai gan mūsu vebinārā par MI vadlīniju ieviešanu daudz runājām par "ēnu IT", mūsu ekspertu sarunās ar klientiem atklājas trīs specifiskas problēmas, kas paplašina ierasto un vienkāršoto "atļaut/aizliegt" pieeju.
Lūk trīs stratēģiskas un tehniskas atziņas no mūsu ekspertu – Vijas Kalniņas un Jāņa Judrupa – sarunas, kas mainīs Tavu skatījumu uz drošību.
1. "Bezmaksas siera" lamatas: modeļu apmācība
Problēma nav tā, ka darbinieki lieto MI, bet gan kādu MI versiju viņi lieto.
Vebinārā uzsvērām būtisku atšķirību:
Bezmaksas rīki (Public AI): Ja jūsu jurists iekopē līgumu bezmaksas ChatGPT vai DeepL versijā, šis teksts (visticamāk) tiek saglabāts un izmantots, lai apmācītu nākamo modeļa versiju. Teorētiski pastāv risks, ka jūsu organizācijas konfidenciālā informācija kādreiz parādīsies kā atbilde citam lietotājam.
Enterprise/Team risinājumi: Maksas versijās (API vai Team plānos) iestatījumi parasti paredz, ka dati netiks izmantoti lielo modeļu apmācībā.
Secinājums: Jūsu vadlīnijās nepietiek pateikt "angļu valodas dokumentu sagatavošanā izmantojiet X rīku". Ir jābūt skaidrai robežšķirtnei – publiskas versijas rīkus drīkst izmantot tikai vispārīgai informācijai, bet sensitīviem datiem ir nepieciešama smilškastes vide, kas neizplata datus tālāk.
2. "Luksofora princips" datu klasifikācijā
Viena no lielākajām vadītāju bailēm – "Kā mēs izkontrolēsim visu?" Atbilde, ko sniedzām vebinārā: organizācijai nav jākontrolē pašu rīku izmantošana, ir jākontrolē kur tiek izmantoti kādi dati.
Mēs rekomendējam ieviest vienkāršu "luksofora principu" darbiniekiem:
🟢 Zaļā zona (publiski dati): preses relīzes, mārketinga teksti, publiska informācija. Drīkst apstrādāt ar jebkuru (arī bezmaksas) rīku no Baltā saraksta.
🟡 Dzeltenā zona (Iekšēja informācija): sapulču protokoli, iekšējā sarakste. Drīkst apstrādāt tikai ar enterprise līmeņa rīkiem (piemēram, MS Copilot ar komerciālo datu licenci).
🔴 Sarkanā zona (personas dati/noslēpumi): klientu personas kodi, veselības dati, komercnoslēpumi. Aizliegts ievadīt jebkādā ārējā MI rīkā.
Šī pieeja noņem stresu darbiniekiem – viņiem nav jābūt IT ekspertiem, viņiem tikai jāsaprot, ar kādiem datiem viņi strādā.
3. Cilvēks cilpā (Human-in-the-loop)
Vija Kalniņa uzsvēra kritisku ētikas un drošības aspektu, kas bieži tiek aizmirsts automatizācijas eiforijā.
Neviens MI lēmums, kas skar cilvēkus (piemēram, darbinieku atlase, pabalstu piešķiršana vai juridiska analīze), nedrīkst būt pilnībā automatizēts. Vadlīnijās ir obligāti jāiekļauj princips: MI ir asistents, nevis lēmuma pieņēmējs.
Gala atbildību vienmēr uzņemas darbinieks. Tas nozīmē, ka "copy-paste" no čatbota bez pārlasīšanas un faktu pārbaudes ir uzskatāms par darba disciplīnas pārkāpumu.
Vai Jums ir skaidrs plāns, kā šos trīs principus iedzīvināt dokumentācijā?
Mēs redzam, ka organizācijām visgrūtāk iet tieši ar pirmo soli – esošās situācijas auditu un risku klasifikāciju. Tāpēc esam izstrādājuši pakalpojumu, kas 2 mēnešu laikā ļauj nonākt no "nezinu, ko viņi dara" līdz "mums ir droša un sertificēta vide".
👉 Iepazīstieties ar mūsu MI ieviešanas metodoloģiju šeit.
🎙️Vebināru ir iespējams noskatīties šeit.