Regulativa kot okvir za odgovorno uporabo umetne inteligence
Tehnološki svet je 25. februarja 2026 naslovil pomembno temo uporabe umetne inteligence in vloge regulative. V ospredju je bilo vprašanje, kako lahko lahko novi regulativni okviri omogočijo varnejšo in učinkovitejšo uporabo umetne inteligence, ne da bi pri tem upočasnili njen razvoj.
Najprej smo prisluhnili Saši Sodja, odvetnici in partnerici v CMS Reich-Rohrwig Hainz Attorneys-at-Law, ki je predstavila ključne elemente Akta o umetni inteligenci ter širše regulativno okolje. Regulative ne vidi kot ovire, temveč kot mehanizem, ki spodbuja jasnejšo odgovornost, nadzor in upravljanje. Čeprav prinaša dodatno kompleksnost, podjetja hkrati spodbuja, da jasno opredelijo odgovornosti in vzpostavijo notranje okvire za uvajanje umetne inteligence. To ustvarja pomembne temelje za njeno odgovorno in dolgoročno implementacijo.
Sledil je pogovor o konkretnih primerih iz prakse, ki ga je moderiral Gregor Kovačič, izvršni direktor področja za digitalno poslovanje in izkušnjo strank na Zavarovalnici Triglav in sopredsedujoči svetu.
Nastja Stošič je delila, kako je umetna inteligenca že vključena v procese Zavarovalnice Triglav, tudi pri obravnavi škodnih primerov. Umetna inteligenca podpira avtomatizacijo in večjo učinkovitost zaposlenih, vendar ji ne prepuščajo funkcije odločanja. Ostaja orodje za podporo zaposlenim, ni pa nadomestilo njihove strokovne presoje. Strukturiran pristop s ciljem, kaj bomo prepustili umetni inteligenci in kaj ne je ključen, zlasti kadar gre za obdelavo osebnih podatkov.
Iz telekomunikacijskega vidika je Damjan Hohnec predstavil, kako A1 Slovenija uporablja umetno inteligenco v svojih storitvah, med drugim prek klepetalnih in glasovnih botov, ki zagotavljajo podporo strankam 24 ur na dan. Poudarek ni zgolj na optimizaciji notranjih delovnih procesov, temveč na zagotavljanju pomoči, ki je za uporabnika enako zanesljiva in uporabna kot pogovor s svetovalcem.
Pomemben del razprave je bil namenjen varstvu osebnih podatkov kot enemu ključnih vidikov odgovorne uporabe umetne inteligence. Člani so govorili o tem, kako zagotoviti varno uporabo podatkov v različnih produktih in storitvah. Posebej pri občutljivejših primerih je potrebna dodatna zaščita, kot je anonimizacija podatkov znotraj sistemov umetne inteligence, prav tako pa je pomembno, da so uporabniki jasno seznanjeni, kdaj in zakaj se njihovi podatki obdelujejo s pomočjo umetne inteligence.
Razprava je pokazala, da je veliko odvisno tudi od načina razmišljanja. Evropski regulativni pristop je v primerjavi s Kitajsko in ZDA bolj previden, kar lahko upočasni razvoj, hkrati pa daje večji pomen varstvu uporabnikov in dolgoročnemu zaupanju. Regulativa neizogibno prinaša dodatno kompleksnost, obenem pa vzpostavlja jasne varovalke za odgovorno uporabo umetne inteligence.
Zavarovalnici Vita in Tinetu Pustu, članu uprave se zahvaljujemo za gostoljubje.
