Gran angular

Encantats amb la IA, però amb responsabilitat

Cursa contra rellotge de legisladors i professionals multidisciplinaris per construir una tecnologia sense biaixos, fiable i respectuosa amb la privacitat de les persones

Europa pot ser la primera regió del món a disposar d’un marc legal
Mai fins ara una tecnologia havia evolucionat de manera tan ràpida

“La intel·ligència artificial (IA) generativa s’ha democratitzat. No se li ha de tenir por, però sí que s’han de tenir en compte i controlar els riscos operatius, ètics i de regulació que l’acompanyen”, afirma Bárbara Fernández, directora adjunta de Mapfre Open Innovation i responsable d’Insur_space.

Durant l’ITC/DIA, l’esdeveniment més gran d’Europa de l’àmbit insurtech, celebrat a finals del juny passat a Barcelona, el grup assegurador Mapfre va presentar l’informe Intel·ligència artificial responsable: tecnologia de confiança, segura i sostenible per generar l’economia del futur, en què ja es percep que l’ús responsable de la IA és una prioritat per als consells directius de les companyies. Per tant, indica l’informe, el primer pas ha de ser definir les bones pràctiques, els estàndards i serveis que ens permetran avaluar, monitorar i mitigar els riscos.

Segons Fernández, que va participar com a ponent en una de les conferències de l’esdeveniment, “les asseguradores han d’actuar com a xarxa de seguretat en aquest entorn, a més d’acompanyar i impulsar els projectes i innovacions que adoptin aquesta tecnologia”: “La col·laboració mútua és la millor manera per avançar-nos i liderar el camí que ens ha de dur a l’ús d’una IA ètica i d’una governança responsable.”

La intel·ligència artificial (IA) ha passat en un temps rècord de ser una tecnologia d’uns pocs a aplicar-se de manera massiva. No hi ha sector econòmic que no elogiï els seus grans beneficis, que sense dubte provocaran canvis en el desenvolupament de l’economia i de la societat del món sencer, però també es temen els seus riscos.

“Es pot demostrar que la IA fa servir ‘al·lucinacions’, s’inventa coses. Per aquest motiu, per exemple, ChatGTP ha contractat personal a Kenya per filtrar respostes, perquè és una qüestió que s’ha de frenar. Tanmateix, s’ha de tenir en compte que, per disseny de la mateixa IA, això és inevitable”, explica Brian Subirana, catedràtic d’IA a EADA Business School, i també professor d’IA a la Universitat de Harvard i al MIT (Massachusetts Institute of Technology).

La IA generativa, comenta Subirana, “es basa a intentar confondre un model discriminatori d’una xarxa ben entrenada, la intenta enredar i per fer-ho copia els biaixos, no els elimina. A més, fer-ho al cent per cent és impossible. Per tant, el risc de la IA generativa no tutelada és inevitable”.

Sense aturador.

Europa, que podria ser la primera regió del món a tenir un marc legal per a aquesta tecnologia, va aprovar el 14 de juny un projecte de llei que intenta regular-la, l’Artificial Intelligence Act, modificant les normes prèvies que es van establir el 2021. El Parlament Europeu, el Consell i la Comissió volen tenir acordat el text definitiu abans que acabi l’any, perquè es pugui aplicar abans del 2026.

“No podem posar fre al desenvolupament de la IA. Mai no havia vist una evolució tan ràpida d’una tecnologia, i aviat serà impossible no fer-la servir”, afirma Subirana. Per a ell, dos àmbits on aquesta tecnologia pot generar molt valor són el de la salut i la robòtica. “Les dades compartides sumades a la IA poden fer néixer un nou model d’atenció mèdica basat en la prevenció”.

Per tant, aconseguir una IA generativa fiable i responsable comporta fer possible que accedeixi a les dades, perquè només així es podran minimitzar els riscos inherents i fer que sigui el més justa i imparcial possible. Per tant, el marc que l’ha de regular hauria de facilitar un gran intercanvi de la informació. A Catalunya, segons les últimes dades oficials (2019), hi ha 179 empreses dedicades a la IA, 92% de les quals són pimes que ocupen gairebé 8.500 professionals.

Una llei per extremar la vigilància

El projecte de llei europeu per regular la IA tipifica els principis que s’hauran d’aplicar a tots els sistemes que utilitzin la tecnologia: intervenció i vigilància humanes, solidesa i seguretat tècnica, privacitat i governança de dades, transparència, benestar social i mediambiental i diversitat, equitat i no discriminació. Classifica les plataformes que la utilitzen en funció del risc potencial que suposen per al benestar social -risc mínim, limitat, alt risc i risc inacceptable-, a més d’establir diversos nivells d’obligacions informatives i de seguretat per als usuaris, i el règim sancionador per als incompliments.

El text de la futura norma també prohibeix específicament els sistemes d’identificació i classificació biomètrica, així com la creació de bases de dades de reconeixement facial i emocional basada en la biometria, i estableix sancions que s’estenen dels 5 als 40 milions d’euros. Segons l’últim estudi de la consultora Boston Consulting Group, fet públic el juny passat, es preveu que el negoci que generarà la IA generativa se situarà al voltant dels 121 bilions d’euros el 2027.



Identificar-me. Si ja sou usuari verificat, us heu d'identificar. Vull ser usuari verificat. Per escriure un comentari cal ser usuari verificat.
Nota: Per aportar comentaris al web és indispensable ser usuari verificat i acceptar les Normes de Participació.