Nombre de lectures: 0

L’ús intensiu de dades i la irrupció de la intel·ligència artificial (IA) han transformat profundament la presa de decisions tant en l’àmbit públic com privat, especialment en sectors sensibles com la salut, l’educació o la justícia. Aquestes tecnologies ofereixen grans oportunitats per millorar els serveis públics, però també plantegen riscos importants per als drets fonamentals. Per això, l’ètica esdevé un element clau per garantir un ús responsable i respectuós amb la dignitat humana, per assegurar que la IA i les dades es gestionin amb criteris de transparència, equitat i responsabilitat.

L’Administració pública, i en particular la Generalitat de Catalunya, té un paper clau en la transformació digital basada en dades i en la IA, i per això ha d’adoptar principis ètics sòlids, eines de rendició de comptes i marcs normatius en evolució. Aquesta responsabilitat s’articula a través d’estratègies com l’estratègia Catalonia AI, i la de governança de dades, així del compliment del Reglament (UE) 2024/1689 del Parlament Europeu i del Consell, de 13 de juny de 2024, pel qual s’estableixen normes harmonitzades en matèria d’intel·ligència artificial (RIA). En aquest marc, s’ha creat la Comissió d'Intel·ligència Artificial mitjançant l’Acord GOV/45/2024, per impulsar mesures concretes dins l’Administració que garanteixin un ús ètic i responsable de la IA.

L'article 6 del RIA estableix una regulació basada en el risc, i classifica les tecnologies en quatre categories: les de risc mínim, que es poden desenvolupar sense condicions legals, però amb recomanacions de codis de conducta; les de risc limitat, que requereixen transparència; les de risc alt, que necessiten regulació i inclouen tecnologies amb elements protegits per normatives de salut i seguretat, així com les classificades per la Comissió, amb control ex ante i obligacions ex post, i les de risc inacceptable, que estan prohibides perquè representen una amenaça per a la seguretat, els drets o els mitjans de subsistència de les persones, com la manipulació cognitiva conductual, l'actuació policial predictiva, el reconeixement d'emocions en llocs de treball i centres educatius i la puntuació ciutadana.

Des d’una perspectiva més concreta, els servidors públics i la mateixa Administració han de disposar de marcs de referència, mecanismes i eines que permetin aterrar les prevencions establertes en una normativa sectorial incipient, dispersa i embrionària i, alhora, permetre exercir un continu procés de rendició de comptes dels usos de la IA.

Què és l’ètica? Relació entre ètica i tecnologia

Abans, però, de concretar que està fent l’Administració per abordar els reptes i desafiaments que suposa l’aplicació de la IA, és necessari situar alguns conceptes bàsics relacionats amb els dilemes ètics, i així distingim:1)

  • Moral: conjunt de normes i creences relatives a la consecució d’una vida bona i justa. Té a veure amb els hàbits i costums i és canviant. La pregunta que ens hem de formular és: què he de fer? La resposta ens portarà a fer o deixar de fer alguna cosa. (Begoña Román Maestre)
  • Ètica: disciplina que reflexiona sobre la moralitat i estableix els principis en què es basa, a partir dels quals prenem les decisions sobre allò que hem de fer. La pregunta que ens hem de formular és: per què ho he de fer? En la resposta a aquesta pregunta, sempre hi ha d'haver arguments. (Begoña Román Maestre)
  • Valors: són ideals que aspirem a assolir, que han de ser font d’inspiració i motor de la nostra acció. (Francesc Torralba Roselló)
  • Principis: normes o regles generals que han de guiar la conducta, de manera que ens acostin a l’assoliment dels valors.


L’ètica és una branca de la filosofia que reflexiona sobre el que és moralment correcte i orienta les nostres accions a través de valors i normes. Té una dimensió teòrica, que analitza conceptes com el bé i la justícia, i una dimensió pràctica, que guia la presa de decisions. Aquesta disciplina no només influeix en el que fem, sinó que també ens ajuda a avançar cap a ideals col·lectius i generar confiança per assumir responsabilitats en la nostra actuació.

Quan s’aplica a la tecnologia, especialment a la IA, l’ètica no es limita a principis generals, sinó que requereix estructures concretes de gestió i presa de decisions. La IA no és neutra: pot tenir impactes socials importants si es basa en dades esbiaixades o en la manca de transparència. Per això, cal incorporar l’ètica des del disseny fins a la implementació i avaluació dels sistemes, i assegurar una gestió responsable, col·laborativa i multidisciplinària al llarg de tot el cicle de vida de les dades.

Ètica i normativa: dues dimensions complementàries en l’ús de la IA

L’ètica i la normativa són conceptes relacionats però diferents. Mentre que la normativa estableix obligacions legals amb conseqüències jurídiques, l’ètica reflexiona sobre el que és moralment correcte i orienta l’acció més enllà del que exigeix la llei. Moltes lleis es basen en valors ètics, però no totes les accions èticament qüestionables són il·legals. Així, l’ètica actua com a guia anticipada i flexible, capaç d’adaptar-se a contextos canviants i de promoure una cultura de responsabilitat i confiança.

En el context de la IA, aquesta distinció és clau. Per això, les organitzacions han d’adoptar marcs de treball ètics que complementin la regulació, i han d'assegurar-se que les seves decisions tecnològiques siguin no només legals, sinó també justes, transparents i respectuoses amb els drets humans.

Marcs de referència

Un dels primers marcs internacionals sobre ètica i IA és la Declaració de Toronto,2) que defensa la centralitat dels drets humans en el desenvolupament i ús de tecnologies com ara l’aprenentatge automàtic. Aquesta declaració, amb un ampli suport global, proposa que les lleis i estàndards de drets humans guiïn l’anàlisi de l’impacte d’aquestes tecnologies. En l’àmbit europeu, les directrius ètiques per a una IA fiable,3) elaborades per un grup d’experts independents de la Comissió Europea, estableixen que la IA ha de ser lícita, ètica i robusta, i que aquests tres pilars han de coexistir al llarg de tot el cicle de vida dels sistemes per garantir-ne la fiabilitat.

Un altre referent clau és la Recomanació sobre l’ètica de la IA adoptada per la UNESCO el 2021, que va ser aprovada per 193 estats membres. Aquesta recomanació considera l’ètica com una base dinàmica per avaluar i orientar normativament les tecnologies d’IA, i posa l’accent en la dignitat humana, el benestar, la prevenció de danys i els valors propis de la ciència i la tecnologia. Aquests marcs internacionals estableixen una base comuna per a un desenvolupament de la IA que sigui responsable, inclusiu i alineat amb els valors fonamentals de la societat.

Els principis ètics en l’ús de les dades

Com hem apuntat a l’inici, sembla que l’opció del legislador europeu ha estat apostar per una regulació més estricta i proporcionada partint de la delimitació del risc, i en la majoria dels casos fa una remissió a bones pràctiques i codis de conducta. Aquest fet acompanya l'escassetat de normes de dret positiu, i impel·leix a acudir a les anomenades "normes de dret tou" (soft law), que van adquirint protagonisme, ja que donen resposta a les necessitats de les organitzacions de disposar de marcs de referència i de treball concrets en temps d’incertesa i disrupció tecnològica i social.

Els principis ètics es poden considerar instruments orientadors per tractar de combatre l’opacitat i els biaixos dels sistemes d’AI i es consideren com a punt de partida per fer front a la preocupació creixent per les possibles repercussions de la IA en els drets fonamentals, les llibertats i els valors del servei públic. Tanmateix, l’efecte pragmàtic de l’ús de principis ètics no ha de conduir a una confusió ni a desvirtuar l’àmbit normatiu, ni conculcar les degudes garanties procedimentals i jurídiques pròpies de la producció normativa.

Si bé és cert que existeixen àmbits normatius consolidats en què l’avaluació de riscos disposa d'un gran recorregut, com pot ser l’àmbit de la protecció de dades, en què s'hi pot emmirallar, també és necessari desplegar i efectuar les avaluacions de drets fonamentals amb una contextualització correcta d’aquests drets. En aquest sentit, és destacable el treball pioner presentat per l’Autoritat Catalana de Protecció de Dades amb el Model per a l'avaluació d'impacte sobre els drets fonamentals en l'ús d'intel·ligència artificial (AIDF), en línia amb el que estableix el RIA.

El Comitè d’Ètica de les Dades

El Model de govern de les dades de la Generalitat de Catalunya es fonamenta en la centralitat de les persones i promou una governança ètica i responsable. En aquest marc, es crea el Comitè d’Ètica de les Dades (Acord GOV/6/2021, de 19 de gener),4) un òrgan consultiu i transversal que vetlla perquè l’ús de les dades dins l’Administració es faci amb criteris ètics, i promou la reflexió i la generació de coneixement entorn dels reptes que planteja la digitalització i la IA.

Amb un enfocament multidisciplinari, el Comitè actua com una eina clau per abordar dilemes ètics i garantir que el desplegament del Model de govern de les dades s’alinea amb principis com la transparència, la justícia i la responsabilitat. La seva integració dins la Xarxa de Comitès d’Ètica de Catalunya reforça el compromís institucional amb una governança ètica, i es considera l’ètica com un àmbit d’actuació específic i essencial en la gestió i consum de dades.

La política d’ètica de les dades que conforma un dels àmbits de regulació del Model vol alinear amb els principis ètics la governança, la gestió i el consum de dades, i aportar més transparència, qualitat i equitat de les dades per a la ciutadania. A més, té com a objectiu principal que en el seu ús es produeixin beneficis sense perjudicis per a la ciutadania, per això el paper del Comitè d’Ètica de les Dades en aquest àmbit és clau.

El Comitè d’Ètica de les Dades treballa coordinadament amb la Comissió d’IA per prestar el suport i l'assessorament en les seves línies de treball.

D’altra banda, és destacable en l’àmbit polític la subscripció del Manifest per avançar en una IA fiable, que és un document impulsat pel Govern en col·laboració amb l’Observatori d’Ètica en Intel·ligència Artificial (OEIAC) de la Universitat de Girona, en el marc de l’Estratègia d’Intel·ligència Artificial de Catalunya. Aquest Manifest ha estat subscrit en el marc de la primera Cimera Anual de la DETA (Aliança de Tecnologies Disruptives i Emergents).

Conclusions

Els principis i criteris ètics són essencials per guiar l’ús responsable de les dades i la IA dins l’administració pública. Aquest marc ètic permet identificar accions adequades, minimitzar riscos i garantir que l’ús de la IA respecti els drets i les llibertats de les persones. Per això, és fonamental que aquests principis s’apliquin des del disseny i al llarg de tot el cicle de vida dels sistemes d’IA, i que s'integrin en el model de governança de dades i en les eines tecnològiques que els donen suport.

A més, l’ús de la IA no ha de comprometre les garanties del procediment administratiu, ni de les persones, ni reduir la transparència. Més enllà de la motivació de l'acte administratiu, es planteja la necessitat d'assegurar-ne l'explicabilitat per reforçar la transparència i la confiança, també perquè l’Administració, com a òrgan decisori, ha de ser capaç de retre comptes. Al capdavall, l’ús dels principis ètics que coadjuva a fomentar un ús de la IA confiable i alineada amb els valors ètics, és una fortalesa i un suport a la innovació.

L’ús de la IA en l’actuació administrativa s’ha de tractar i valorar d’acord amb les potencialitats del sistema emprat i amb les seves característiques específiques -no serà igual una actuació administrativa automatitzada sense IA que una que sí que l’aplica (p. ex., una IA predictiva). L’ús dels principis ètics enforteix la integritat de l’Administració i s’han de conjugar amb els principis propis del procediment administratiu.

És necessari integrar de forma equilibrada i complementària el dret i l'ètica en els marcs de treball operatius del desplegament de la governança de dades i de l’ètica, basada en l'èmfasi del paper dels drets fonamentals i la protecció dels valors propis del servei públic.

Enllaços d’interès

1)
Font: "Què és un dilema ètic?" Càpsula formativa de l’Oficina Antifrau de Catalunya.
3)
Directrices éticas para una IA fiable, Oficina de Publicaciones, 2019 https://data.europa.eu/doi/10.2759/14078.