Zašto je Evropski parlament isključio AI funkcije na uredskim uređajima: privatnost, rizici i šta dalje
Ključne stavke:
- Evropski parlament privremeno je onemogućio AI funkcije na korporativnim uređajima zbog procjene rizika da podaci s uređaja odlaze van sigurnog okruženja i da se ne može garantirati njihova zaštita.
- Odluka naglašava napetost između produktivnosti koju donose asistenti zasnovani na oblaku i zahtjeva za zaštitom povjerljivih informacija, uz mogućnost da će rješenja zasnovana na procesiranju lokalno na uređaju i stroža pravila upravljanja podacima postati prioritet.
Uvod
Evropski parlament je prekinuo upotrebu određenih AI funkcionalnosti na službenim uređajima nakon što je odjel za IT utvrdio da se ne može sa sigurnošću utvrditi obim podataka koji se šalju trećim stranama. Odluka je reakcija na stvarni i potencijalni rizik da sažetci e‑pošte, bilješke i druge informacije, obrađene pomoću digitalnih asistenata, završe na serverima izvan kontrole institucije. Ta mjera pokreće pitanja o granicama primjene generativnih sistema u okruženjima gdje su povjerljivost i usklađenost prioriteti. I dok proizvođači obećavaju opcije obrade "na uređaju", praksa i tehnička realizacija često podrazumijevaju slanje podataka u oblak, što stvara pravne, sigurnosne i operativne dileme.
Šta se tačno dogodilo u Evropskom parlamentu?
Obavještenje zaposlenicima ukazalo je da su AI funkcije na korporativnim uređajima, uključujući tablete, onemogućene. Razlog je jednostavan: IT odjel nije mogao pružiti uvjerljive garancije o sigurnosti podataka koji bi, prilikom korištenja određenih asistenata, mogli biti poslani van parlamentarne infrastrukture. Nije riječ o potpunom zabrani svih digitalnih alata — obične svakodnevne aplikacije poput kalendara ostale su van ove restrikcije — ali funkcionalnosti koje zahtijevaju obradu teksta, sažimanje ili analizu sadržaja putem eksternih servisa postale su nedostupne dok se ne razjasne tokovi podataka i politike pružalaca usluge.
Također, mjera je privremena i ima karakter predostrožnosti: dok tehnički timovi ne završe procjenu i ne dobiju jasnije informacije o tome šta i kako treće strane obrađuju, jednostavnije je i sigurnije isključiti rizične mogućnosti. To je odluka koja odražava institucionalni prioritet zaštite povjerljivih informacija i izbjegavanja potencijalnih nepravilnosti u prenosu podataka, naročito kada su u pitanju informacije povezne s radom zakonodavnog tijela koje rukuje osjetljivim materijalima.
Tehnički razlozi zabrinutosti
Razlika između korisničkog pritiska na dugme i stvarnog toka podataka koji se generiše kada asistent „sažme“ e‑mail leži u arhitekturi usluge. Mnogi generativni asistenti koriste modele i infrastrukturu u oblaku zbog zahtjeva za velikom obradom podataka i modela s velikim brojem parametara. Kada korisnik zatraži sažetak ili klasifikaciju, sadržaj se šalje na servere pružatelja usluga, prolazi kroz modele i rezultati se vraćaju korisniku. Tijekom tog procesa mogu se zabilježiti metapodaci, sadržaj i kontekst, a ti zapisi mogu biti zadržani radi poboljšanja modela, analitike ili podrške.
Postoje pitanja o tome šta točno ostaje zapisano: dio ili cijeli sadržaj user inputa, kontekst u kojem je zatražena usluga, IP adrese, vremenski zapisi i podaci o uređaju. Pojedini servisi koriste mehanizme za automatsko prikupljanje telemetrije koji, bez jasne kontrole, mogu prenijeti više informacija nego što korisnik zamišlja. Dodatni problem su ugovorni i tehnički detalji: gdje se fizički nalaze serveri, da li se korisnički podaci repliciraju u više regija, kako se upravlja logovima i pod kojim uslovima treće strane imaju pristup tim podacima.
Za institucije poput Evropskog parlamenta, takva neizvjesnost predstavlja regulatorni i sigurnosni rizik jer se može raditi o povjerljivim dokumentima, radnim bilješkama ili komunikaciji koja ne smije napuštati kontrolisano okruženje. Stoga je isključenje funkcija, dok se ne utvrde konkretne garancije, logičan korak.
On‑device AI naspram cloud AI: tehnologija, ograničenja i tvrdnje proizvođača
Proizvođači mobilnih uređaja i softvera sve češće ističu sposobnost obrade podataka direktno na uređaju kao sredstvo za očuvanje privatnosti. Tehnološki razvoj čipova, ubrzivača i optimiziranih modela omogućio je da određene modele smanjene težine rade lokalno. To omogućava izradu funkcionalnosti poput automatskog sažimanja teksta, detekcije jezika ili asistencije u unosu bez slanja podataka u oblak.
Međutim, realnost je složenija. Neka od tih rješenja su hibridna: osnovna obrada može se odvijati lokalno, ali specifične, računarski zahtjevnije operacije preusmjeravaju se u oblak. Drugi slučajevi podrazumijevaju da se lokalno izvrši samo anonimizacija ili enkodiranje, zatim se enkodirani podaci šalju na udaljene modele. Osim toga, pojmovi koje proizvođači koriste u marketingu ponekad ne odražavaju punu sliku tokova podataka. To dovodi do situacije u kojoj organizacije ne mogu biti sigurne da li se osjetljivi sadržaj u potpunosti obrađuje lokalno ili prolazi kroz vanjske infrastrukture.
Prednosti obrade "na uređaju" uključuju smanjen rizik izlaganja podataka, bolju kontrolu nad materijalom i manju ovisnost o povezivanju. S druge strane, ograničenja su vezana za kapacitete računalne snage, brzinu i ažurnost modela, kao i troškove akcelerirane obrade. U nekim scenarijima, pouzdanost i točnost velikih modela u oblaku još uvijek nadmašuju njihove lokalne verzije, što stvara dodatnu tenziju između privatnosti i performansi.
Pravna i regulatorna pozadina: šta EU već radi i šta to znači za implementaciju AI u institucijama
Evropski zakonodavni okvir za AI već ide ispred mnogih drugih jurisdikcija. EU je donijela prvi sveobuhvatan set pravila koji ciljaju na upravljanje rizicima povezanima s umjetnom inteligencijom, ali i dalje su mnoge pojedinosti pravno i administrativno neizvjesne. Zakonodavni akt jasno postavlja kategorije rizičnih primjena AI, zahtjeve za transparentnošću, dokumentacijom i procjenu utjecaja na zaštitu podataka. Za institucije kao što je Parlament, usklađenost s tim normama zahtijeva dodatne interne procese revizije, tehničke provjere i pravne garancije od pružatelja usluga.
U paraleli s EU regulativom, opći okvir zaštite podataka, poznat kao GDPR, nameće obaveze o minimalizaciji obrade podataka, jasnoći svrhe obrade i omogućavanju prava ispitanika. Ako se sadržaj komunikacije šalje u oblak radi obrade bez odgovarajuće pravne osnove, postoji rizik povrede zakona. Također, institucije moraju voditi računa o transferu podataka izvan EU, jer različiti pravni režimi mogu uvjetovati dodatne zaštitne mjere.
Zbog svega navedenog, privremena zabrana korištenja određenih AI funkcija može se promatrati i kao pragmatičan odgovor na regulatornu neizvjesnost: dok se ne postignu jasne ugovorne i tehnološke garancije, institucija štiti sebe od potencijalnih sankcija i reputacionih šteta.
Rizici curenja podataka i stvarni primjeri
Postoje jasni primjeri u industriji koji pokazuju kako zaposlenici nenamjerno ili svjesno mogu otkriti povjerljive informacije kroz AI asistente. Studije i interni incidenti ukazuju da su chat asistenti i alati za generativno kreiranje sadržaja već dovodili do curenja poslovnih podataka, planova i kodnih fragmenata. Takvi incidenti često nastanu kada radnici kopiraju dijelove internih dokumenata u sučelja koja nemaju jasne i stroge ugovorne obaveze o zadržavanju i korištenju podataka.
Pored toga, migracije projekata i promjene u odabiru alata zbog brige o privatnosti ukazuju na trendove: organizacije traže alternative ili prelaze na platforme za koje se smatra da bolje štite intelektualno vlasništvo i poslovne tajne. Slično tome, zahtjevi za većom transparentnošću u tom segmentu dovode do pritiska na dobavljače usluga da javno objasne kako obrađuju i pohranjuju inpute korisnika.
Poseban problem predstavljaju implicitni podaci i metapodaci koji, čak i ako su tekstualni inputi anonimni, mogu otkriti osjetljive obrasce. Na primjer, niz kratkih poruka o pravnim pregovorima ili financijskim odlukama može omogućiti zaključivanje sadržaja bez eksplicitnog navođenja osjetljivih detalja. Upravo takve nijanse i zabrinjavaju institucije koje svakodnevno rade s povjerljivim materijalom.
Operativne mjere i preporučene prakse za organizacije
Organizacije koje se suočavaju s istim dilemama mogu primijeniti skup tehničkih i upravljačkih mjera kako bi smanjile rizike. Prvo, potrebno je mapiranje tokova podataka: koje informacije cirkulišu unutar i izvan organizacije i kojim putem. Tek nakon jasne karte može se pravno i tehnički procijeniti izloženost.
Drugo, politike o korištenju alata moraju biti jasne i primjenjive. To uključuje zabranu unošenja povjerljivih ili regulisanih podataka u alate čija sigurnost nije dokazana, obrazovanje zaposlenika i provođenje redovnih provjera usklađenosti. Dodatno, tehnička rješenja poput Data Loss Prevention (DLP) sistema mogu spriječiti slanje osjetljivog sadržaja u neovlaštene vanjske servise.
Treće, ugovorni aranžmani s dobavljačima moraju sadržavati garancije o načinu obrade podataka, vremenu zadržavanja, pravima na brisanje i ograničenjima korištenja inputa za unapređenje modela. Ugovori bi trebali detaljno definirati gdje su fizički smješteni serveri i pod kojim uvjetima se podaci obrađuju, uključujući mehanizme za reviziju i neovisne provjere.
Četvrto, tehničke alternative kao što su raspoređivanje manjih modela na lokalnim serverima, upotreba homomorfnog šifriranja, secure enclaves i federativnog učenja mogu smanjiti količinu podataka koji napuštaju kontrolisanu infrastrukturu. Pri tome je važno procijeniti bonus izvedbe nasuprot dodatnim troškovima i kompleksnosti.
Peti korak je kontinuirano praćenje i revizija. Modeli i servisi se brzo razvijaju, pa rješenje koje je bilo odgovarajuće prije šest mjeseci možda više nije adekvatno. Periodične procjene, vanjski auditi i transparentnost u komunikaciji s korisnicima daju dodatni nivo garancije.
Utjecaj na rad zakonodavaca i unutrašnju dinamiku institucije
Odluka o onemogućavanju AI funkcija ne ostaje bez posljedica za radnu efikasnost. Asistenti za sažimanje e‑pošte, generisanje nacrta odgovora i brzi pregled sastanaka znatno smanjuju vrijeme potrebno za rutinske zadatke. Onemogućavanje takvih mogućnosti znači da poslanici i njihovi pomoćnici moraju koristiti tradicionalne metode rada ili ručno preraditi informacije, što povećava opterećenje.
S druge strane, ograničenja su nametnuta zbog prevencije većeg rizika — curenja povjerljivih informacija može imati znatno veće posljedice nego gubitak brzine. U praksi, institucije često biraju model u kojem sofisticirani alati ostaju dostupni samo u strogo kontrolisanim okruženjima, primjerice na uređajima koji koriste on‑premise modele ili kroz servise s dokazano regulisanom politikom obrade podataka.
Za korisnike to znači privikavanje na jasne upute i često dodatno obrazovanje o tome šta se smije, a šta ne smije unijeti u alate potpomognute AI. Postoji i opasnost od tzv. "shadow AI" — situacije u kojoj zaposlenici, zbog želje za većom produktivnošću, koriste privatne pretplate na AI alate izvan službenih kanala, čime se rizik povećava. Upravo zato interna komunikacija i povjerljive alternative ključe su za smanjenje takvog ponašanja.
Šira geopolitika podataka: kuda odlaze informacije i tko ih kontrolira?
Pitanje gdje se fizički nalaze serveri pruža dodatni dimenzionalni sloj rasprave. Ako se podaci repliciraju u regijama sa slabijom zaštitom prava ili se dijele između mnoštva podizvođača, kontrola nad tim informacijama je umanjena. Posljedice se ne odnose samo na individualne i organizacijske rizike, već i na strateške interese.
Za javne institucije, pitanje suvereniteta podataka postaje političko pitanje. Nejasnosti oko toga kako dobavljači modela koriste inpute korisnika i da li ih koriste za treniranje općih modela ili ih čuvaju za interne analize izazivaju zahtjeve za većom transparentnošću i tehničkim garancijama. Državni i politički faktori tako mogu ubrzati razvoj lokalnih rješenja ili uvedu striktne ugovorne odredbe o lokaciji podataka i pristupu.
Globalni ekosistem tehnologije AI ne djeluje u vakuumu — međunarodni sporazumi, pravni okviri i tržišne sile utječu na to ko razvija, ko posjeduje i ko kontrolira modele i infrastrukturne resurse. Time se otvoreno pitanje "tko" postavlja uz tehničko pitanje "kako".
Tehnološke alternative i pravac razvoja
Kratkoročno rješenje za rizik vezan uz slanje podataka u oblak je ograničavanje funkcionalnosti i selektivno korištenje provjerenih servisa. Duži rok zahtijeva napredak u arhitekturama koje omogućavaju visokokvalitetnu obradu bez izlaganja raw podataka. Federativno učenje, gdje se modeli treniraju decentrizovano na korisničkim podacima, tehnologije diferencijalne privatnosti i homomorfno šifriranje obećavaju da će smanjiti potrebu za centralnim pohranjivanjem korisničkih inputa.
Također, trend prema manje zahtjevnim, ali preciznim modelima koji mogu efikasno raditi na periferiji (edge computing) nastavlja se ubrzavati. Hardverski razvoj, uključujući specijalizirane NPUs i optimizirane biblioteke, omogućit će da više operacija ostane lokalno bez značajnog kompromisa u performansama.
Konačno, industrijski standardi i nezavisne certifikacije za pružatelje AI usluga mogle bi donijeti potrebnu razinu povjerenja. Standardi koji definiraju kako se tretira input korisnika, kako se vrši zadržavanje podataka i koje mehanizme revizije treba biti dostupno, omogućit će organizacijama da donose informirane odluke bez hitne zabrane korištenja korisnih funkcionalnosti.
Kako će se situacija vjerovatno razvijati u narednim godinama?
Odluka koju je donio Evropski parlament vjerovatno će potaknuti druge javne institucije i velike organizacije da preispitaju svoje pristupe prema AI uslugama. U nadolazećem periodu može se očekivati kombinacija tehničke implementacije strožih kontrola, jasnijih ugovornih odredbi s dobavljačima i ubrzane potražnje za rješenjima koja garantiraju da podaci ne napuštaju povjerljivo okruženje bez adekvatnih zaštita.
Regulatorni okvir će također evoluirati. Kako iskustva i incidenti budu dolazili u javnu sferu, zakonodavci će vjerojatno fino podešavati pravila o transparentnosti modela, pravu ispitanika i posebnim zahtjevima za sektore koji rukuju osjetljivim podacima. Za proizvođače će to značiti potrebu za boljom dokumentacijom, revizijama i, u mnogim slučajevima, mogućnošću ponude "enterprise‑grade" rješenja koja zadovoljavaju specifične zahtjeve.
S druge strane, potražnja za boljim lokalnim modelima i hybridnim arhitekturama potaknut će inovacije u pogledu optimizacije modela za uređaje, razvoja novih hardverskih akceleratora i alata za verifikaciju privatnosti. U konačnici, balans između brzine, korisničkog iskustva i zaštite podataka ostaje centralna dilema.
Etička dimenzija i političke implikacije
Osim tehničkih i pravnih aspekata, postoje i etičke implikacije. Javne institucije su, po prirodi, odgovorne svojim biračima i moraju održavati povjerenje u način rada. Korištenje alata koji potencijalno izlažu internu komunikaciju riziku može narušiti percepciju o sigurnosti i profesionalizmu. S druge strane, kategorična zabrana može ograničiti pristup tehnologijama koje olakšavaju rad i pomažu pri donošenju informiranih odluka.
Politika u ovoj sferi zahtijeva pažljiv pristup: promovisati korištenje AI koje je u skladu s javnim interesom, dok se istovremeno grade mehanizmi odgovornosti i nadzora. To uključuje i transparentnost u komunikaciji o ograničenjima i mjerama zaštite, kako bi građani i relevantne interesne grupe shvatili način i razloge za donošenje takvih odluka.
Preporuke za donosioce odluka u javnim institucijama
Osnovne preporuke uključuju uspostavljanje jasnih pravila upotrebe AI alata, prioritetno mapiranje tokova podataka, zahtjevanje jasnih ugovornih klauzula i tehničkih specifikacija od dobavljača, uvođenje alata za sprječavanje odljeva podataka i redovnu reviziju sigurnosnih postavki. Također je nužno ulaganje u obuku zaposlenika kako bi razumjeli rizike i kako adekvatno postupati s povjerljivim informacijama.
Treba težiti i formiranju međuinstitucionalnih radnih grupa koje će razmjenjivati iskustva, standarde i konkretne tehničke postavke. Suradnja sa stručnjacima za sigurnost i pravnike u području zaštite podataka pomoći će da se pravovremeno prepoznaju i adresiraju nove prijetnje.
Česta pitanja:
Pitanje: Zašto su AI funkcije isključene na uređajima Evropskog parlamenta? Odgovor: Zbog procjene da IT odjel ne može sa sigurnošću potvrditi obim i destinaciju podataka koji se prilikom korištenja određenih AI asistenata šalju van organizacijske infrastrukture, a to predstavlja potencijalni rizik za povjerljive informacije.
Pitanje: Da li su sve AI mogućnosti onemogućene? Odgovor: Ne. Prema izvještajima, svakodnevne aplikacije poput kalendara nisu pogođene, ali funkcionalnosti koje zahtijevaju obradu sadržaja putem eksternih servisa, poput sažimanja e‑pošte, privremeno su onemogućene.
Pitanje: Šta znači da AI "šalje podatke u oblak"? Odgovor: Kada korisnik zatraži obradu — na primjer da se sažme e‑mail — sadržaj i metapodaci se mogu prenijeti na udaljene servere koji vrše obradu koristeći modele u oblaku, a zatim vraćaju rezultat. Tijekom tog procesa podaci mogu biti zadržani ili korišteni u svrhe poboljšanja modela, zavisno od politike pružatelja.
Pitanje: Je li rješenje uvijek korištenje on‑device modela? Odgovor: Nije uvijek. On‑device rješenja smanjuju rizik od slanja podataka van, ali mogu imati ograničenja u pogledu performansi i sposobnosti modela. Mnoge implementacije su hibridne i zahtijevaju pažljivu tehničku procjenu.
Pitanje: Kako regulative u EU utiču na takve odluke? Odgovor: EU je razvila opsežan regulatorni okvir za AI i već ima stroge propise o zaštiti podataka (GDPR). Javne institucije moraju osigurati usklađenost s tim normama, što podrazumijeva dodatne provjere i garancije prilikom korištenja alata koji obrađuju povjerljive informacije.
Pitanje: Koji su tehnički mehanizmi za smanjenje rizika curenja podataka? Odgovor: Mehanizmi uključuju Data Loss Prevention, enkripciju, homomorfno šifriranje, upotrebu secure enclaves, federativno učenje i lokalno raspoređivanje modela, uz stroge ugovorne klauzule s dobavljačima.
Pitanje: Šta je "shadow AI" i zašto je opasan? Odgovor: Shadow AI označava situaciju kada zaposlenici koriste neautorizirane AI alate ili privatne račune radi obavljanja poslova. To povećava rizik izloženosti povjerljivih podataka jer ti alati nisu evaluirani kroz službene sigurnosne i ugovorne kanale.
Pitanje: Da li pružatelji usluga obično zadržavaju korisničke inpute za treniranje modela? Odgovor: Politike variraju. Neki pružatelji zadržavaju inpute radi poboljšanja modela ili analitike ako to ugovorno nije ograničeno. Zato je za organizacije važno osigurati jasne ugovorne odredbe o načinu zadržavanja i upotrebe podataka.
Pitanje: Mogu li institucije zahtijevati audite kod pružatelja AI usluga? Odgovor: Da. Ugovori bi trebali uključiti klauzule koje omogućuju neovisne revizije i provjere sigurnosnih praksi, kao i specifikacije o lokaciji servera i procedurama za brisanje podataka.
Pitanje: Kako će se ovo odraziti na produktivnost zaposlenih? Odgovor: Kratkoročno, ograničenja AI funkcionalnosti mogu smanjiti brzinu obrade rutinskih zadataka poput sažimanja e‑pošte ili generisanja nacrta. Dugoročno, organizacije će tražiti sigurna rješenja koja vraćaju neke od funkcionalnosti bez kompromisa po pitanju sigurnosti.
Pitanje: Koje su političke implikacije ovakvih mjera? Odgovor: Javne institucije moraju čuvati povjerenje birača i osigurati zaštitu povjerljivih informacija. Ograničenja u korištenju određenih tehnologija reflektiraju povjerenje i odgovornost, ali također pokreću diskusiju o ravnoteži između inovacija i zaštite privatnosti.
Pitanje: Šta građani i zainteresovane strane trebaju očekivati u narednom periodu? Odgovor: Očekuje se više transparentnosti od dobavljača AI usluga, stroži ugovorni zahtjevi, rast upotrebe lokalnih i hibridnih rješenja te kontinuirane revizije politika i tehnoloških praksi kako bi se osigurala usklađenost i zaštita podataka u javnom sektoru.
istaknuti članci