Liepos 18 d., ketvirtadienis | 24

Europa brėžia raudonas linijas dirbtiniam intelektui: teisės profesorius aiškina, ką tai reiškia kasdienybėje

2023-06-20

Pasaulį užvaldžiusios mašinos ir jų pavergti žmonės – tokį pesimistinį scenarijų piešė kritikai, stebėdami šiuo metu žaibiškai tobulėjantį dirbtinį intelektą (DI). Tačiau Europos Parlamentas (EP) praėjusią savaitę žengė svarbų žingsnį ir pateikė savo pasiūlymus dėl DI reguliavimo akto. Dabar prasideda derybos su Europos Sąjungos (ES) šalimis narėmis dėl galutinio reglamento turinio. Tačiau Europa aiškiai rodo: jokio žmonių „rūšiavimo“, veidų ar nuotaikų atpažinimo, sako „Telia“ Skaitmeninės pažangos centro ekspertas teisės profesorius Paulius Pakutinskas.

ES apie DI etiką ir reguliavimą pradėjo galvoti beveik prieš dešimtmetį, tačiau dalis visuomenės į tai rimtai pažiūrėjo tik dabar, kai pastebėjo, kad „ChatGPT“ ir kiti populiarėjantys pokalbių robotai gali būti panaudoti kuriant dezinformaciją, netinkami panaudojant asmens duomenis, pažeidžiant vaikų teises ar sekant žmones.

Buhalterinė apskaita. Horizontali. Straipsnių viduje.

„Išreikšta EP pozicija yra rimtas žingsnis DI reguliavimo kelyje, tačiau iki galutinio reglamento priėmimo dar laukia ilgas kelias. Priimta parlamento pozicija toliau bus derinama triloguose tarp EP, Europos Komisijos bei Europos Tarybos ir su visomis ES šalimis narėmis. Siekiama, kad bendras sutarimas būtų pasiektas iki šių metų pabaigos, tačiau, net priėmus aktą, realų jo poveikį pajustume tik po kelerių metų“, – naujojo reguliavimo esmę aiškina „Telia“ Skaitmeninės pažangos centro dirbtinio intelekto ekspertas profesorius Paulius Pakutinskas.

Jis pabrėžia, kad šis DI reguliavimas yra ES skaitmeninės strategijos dalis ir yra reikalingas, kad būtų išsklaidytos tam tikros žmonių baimės, susijusios su DI panaudojimu. Taip siekiama surasti balansą tarp skaidraus mūsų kasdienybę transformuojančių inovacijų naudojimo ir pačių pavojingiausių rizikų užkardymo, įskaitant neteisėtą duomenų rinkimą, diskriminaciją, poveikį žmogaus pasąmonei, manipuliavimą pažeidžiamomis asmenų grupėmis.

Rizika paremtas modelis

Profesorius P. Pakutinskas pastebi, kad balsavimas dėl derybinės EP pozicijos toli gražu nebuvo vienbalsiai aiškus formalumas – jo patvirtinimui prireikė net 43 techninių ir 12 politinių susitikimų. Prie šio klausimo sudėtingumo prisidėjo ir politinis susiskaldymas – vieni politikai buvo linkę DI laikyti didžiule grėsme individui ir visuomenei, o kiti – šioje technologijoje pirmiausia įžvelgia galimybes ir baiminasi, kad pernelyg griežtai reglamentuodama DI plėtrą technologijų arenoje Europa gali atsilikti nuo kitų žemynų.

„Nenuostabu, jog norėdama rasti abiem šioms stovykloms tinkantį kompromisą, teisės aktus inicijuojanti Europos Komisija (EK) pasirinko rizika grįstą reguliavimo modelį, o EP šį dokumentą papildomai keitė, pridedant papildomų saugiklių. Paprasčiau kalbant, tai reiškia, kad DI naudojantis jūsų robotas dulkių siurblys arba žoliapjovė priskiriami minimalios rizikos kategorijai ir nebus stipriai reguliuojami, o DI produktams, naudojamiems jautriose srityse, tokiose kaip švietimas, kritinė infrastruktūra ar teisėsauga, reikės atitikti kur kas griežtesnius reikalavimus. Jie apima rizikos vertinimą, aukštą duomenų kokybę, rezultatų atsekamumą, žmogišką priežiūrą ir didelį saugumo bei tikslumo lygį“, – detalizuoja pašnekovas.

Ekspertas nurodo, kad kalbant apie DI, jo panaudojimo rizikas, reikia neužmiršti, kad DI nėra blogis, kurį reikia naikinti ar drausti. Pasak jo, tinkamas DI naudojimas jau duoda ir duos dar daugiau naudos ateityje, pavyzdžiui, užtikrinant geresnę sveikatos priežiūrą, saugesnį transportą, gamtos apsaugą, efektyvesnę gamybą, įdomesnį laisvalaikį, pigesnę ir tvaresnę energiją. O keliamos rizikos taip pat yra labai nevienodos, todėl ir ES pasirinko kelią indentifikuoti ir klasifikuoti DI keliamų rizikų lygį ir taikyti skirtingus rizikos reikalavimus, nuo minimalių iki visiško uždraudimo.

Nuo šio akto nepasislėptų ir populiarieji ne ES sukurti „generatyvinio DI“ atstovai – „ChatGPT“, „Google Bard“ ir kiti. Naujasis DI aktas įpareigotų atskleisti, kad turinys buvo sukurtas DI, jo naudotus informacijos šaltinius, sukurti apsauginius mechanizmus, neleidžiančius DI kurti nelegalaus turinio bei teikti ataskaitas apie autorių teisėmis saugomo turinio naudojimą.

Saugos ir nuo neteisėtų pareigūnų veiksmų

„Telia“ Skaitmeninės pažangos centro ekspertas pastebi, jog EP nariai daug dėmesio skyrė tam, kad DI potencialas nebūtų išnaudojamas ne tik įvairių sukčių, bet ir valstybės institucijų savivalei. Geras to pavyzdys – noras uždrausti naudoti „realaus laiko“ nuotolinio biometrinio identifikavimo sistemas viešai prieinamose erdvėse. Tai yra stebėjimo sistemos, kurios atpažįsta potencialius pažeidėjus minioje. Taip pat siekiama drausti nuotolinio biometrinio atpažinimo sistemas, išskyrus atvejus, kai teisėsaugos institucijos persekioja asmenis už sunkius nusikaltimus ir tik gavus teismo leidimą.

„Politikų ir visuomenės baimes, jog DI galimybės gali būti panaudotos neteisėtam žmonių sekimui, pakurstė įrodymai apie jau egzistuojančius tam skirtus įrankius ir galimai pavojingą jų panaudojimą. „Amnesty International“ nustatė, kad Nyderlandų įmonė „TKH Security“ Artimuosiuose Rytuose okupuotų teritorijų stebėjimui pardavė žmones pagal veidus atpažinti galinčias kameras, o mažiausiai keletas Prancūzijos ir Švedijos bendrovių panašias technologijas už piniginį atlygį suteikė ir Kinijoje masinį piliečių sekimą vykdančioms institucijoms“, – draudimų motyvus atskleidžia P. Pakutinskas.

Naujosios DI panaudojimo taisyklės uždraustų dirbtinio intelekto algoritmams diskriminuoti asmenis dėl žmogaus lyties, amžiaus, rasės, tautybės, religijos ar politinės orientacijos, ką ne visada sugebame pasiekti tarp žmonių ir be DI įsikišimo. EP nariai teisinį stabdį siekia paspausti ir emocijų atpažinimo sistemoms – jų negalėtų naudoti nei darbdaviai, nei švietimo įstaigos, nei teisėsaugos institucijos.

„Šiuo metu DI produktai yra lyg pirmieji kažkada į gatves išvažiavę automobiliai – jų galimybių iki galo nežino nei jų kūrėjai, nei naudotojai, o įvertinus, kad DI gali pats mokytis ir priimti tam tikrus savarankiškus sprendimus, nuspėti ar visada DI bus panaudotas tinkamai tampa dar sudėtingiau. Todėl tam, kad nebūtume „šių automobilių nutrenkti“, reikia įvesti tam tikras taisykles. DI aktu siekiama užtikrinti į žmogų orientuotą ir etišką DI plėtrą Europoje, įgyvendinti naujas DI sistemų skaidrumo ir rizikos valdymo taisykles, kurios kiekvienam iš mūsų duotų tam tikras saugumo garantijas, pavyzdžiui, leistų mums žinoti kada bendraujame su žmogumi, o kada su „robotu“. Aktas draustų nuspėjančias policines sistemas, kurios grupuotų žmones pagal išvaizdą, elgseną ar kitus, tik DI žinomus požymius. Taip nebūtumėme priskiriami prie potencialių nusikaltėlių ir galėtume būti ramūs, jog atėję į darbo pokalbį neišgirsime neigiamo atsakymo tik dėl to, jog tądien dirbtiniam intelektui pasirodysime pavargę ar nusiminę“, – praktiškais pavyzdžiais naujojo DI akto prasmę reziumuoja „Telia“ Skaitmeninės pažangos centro dirbtinio intelekto specialistas.

Būsimas DI aktas turės derėti su daugybę kitų ruošiamų ir jau patvirtintų ES teisės aktų, reguliuojančių skaitmeninę erdvę. Jis numatys ne tik labai svarbias taisykles, kaip elgtis arba nesielgti, bet ir milžiniškas baudas, siekiančias dešimtis milijonų eurų.

Nuotrauka ir pranešimas spaudai – AB „Telia Lietuva