Impacte de la Intel·ligència Artificial en la protecció de dades

És un fet! La intel·ligència artificial (IA) està transformant ràpidament diversos sectors i està influint en aspectes com la protecció de dades personals. Aquest avanç tecnològic presenta tant oportunitats com desafiaments significatius, ja que l’ús de la IA implica el maneig de grans volums d’informació, incloent dades personals sensibles. Aquesta situació planteja importants qüestions sobre l’impacte de la Intel·ligència Artificial en la protecció de dades. Específicament, en com afecta la imparcialitat del tractament, la privadesa i la seguretat d’aquestes.

Certament, l’aprenentatge automàtic, una branca essencial de la IA, depèn fonamentalment de grans conjunts de dades per entrenar models i fer prediccions precises. Freqüentment, aquestes dades inclouen informació personal, la qual cosa genera preocupacions sobre com es manegen i protegeixen aquestes dades. La capacitat de la IA per analitzar i aprendre de dades massives no només maximitza el seu potencial, sinó que també ajuda a mitigar biaixos i errors en el processament d’informació. Tanmateix, aquest mateix procés pot exposar els titulars de dades a diversos riscos si no es gestionen adequadament.

Un dels desafiaments més grans és identificar els escenaris en què la IA pot posar en risc la privadesa dels individus. Existeixen dos aspectes crítics en aquest context: les decisions automatitzades i l’aprenentatge basat en experiències prèvies. Sens dubte, la IA pot prendre decisions sense intervenció humana directa, i aquestes decisions poden afectar significativament les persones si es basen en dades personals incorrectes o desactualitzades. A més, el procés d’aprenentatge de la IA utilitza dades històriques que poden contenir biaixos inherents, perpetuant així desigualtats i discriminacions si no se supervisa adequadament.

En un post recent, vam identificar la influència de la IA com un dels reptes actuals del dret de propietat intel·lectual. Però la implicació amb el tractament de dades personals va més enllà.

El Reglament General de Protecció de Dades (RGPD) de la Unió Europea estableix un marc legal robust per a la protecció de dades personals, aplicable també a les tecnologies de IA. En particular, l’article 5 del RGPD recull principis fonamentals que s’han de seguir en tractar dades personals. A propòsit de l’impacte de la Intel·ligència Artificial en la protecció de dades, aquests principis garanteixen que l’ús de l’esmentada tecnologia compleixi amb els estàndards de privadesa i protecció de dades exigits per la normativa:

  • Licitud, lleialtat i transparència. Les dades personals han de ser processades de manera legal, justa i transparent, assegurant que els individus comprenguin com s’utilitzen les seves dades.
  • Limitació de la finalitat. En efecte, la captació de les dades ha de tenir fins específics, explícits i legítims. Tampoc poden ser utilitzades per a altres fins que no siguin compatibles amb els originals.
  • Minimització de dades. Només s’han de recopilar les dades necessàries per als fins establerts, evitant l’acumulació d’informació innecessària.
  • Exactitud. En concret, és indispensable mantenir les dades exactes i actualitzades, corregint qualsevol inexactitud de manera oportuna.
  • Limitació del termini de conservació. Les dades s’han d’emmagatzemar només durant el temps necessari per complir amb els fins del tractament. 
  • Integritat i confidencialitat. Al respecte, s’han d’aplicar mesures tècniques i organitzatives per garantir la seguretat de les dades personals, protegint-les contra l’accés no autoritzat, la destrucció o el dany accidental.

D’altra banda, el RGPD també introdueix el concepte de responsabilitat proactiva, cosa que significa que els responsables del tractament de dades han de no només complir amb els referits principis, sinó també poder demostrar aquest compliment. Més encara, si els responsables fan servir Intel·ligència Artificial en la protecció de dades i en el seu tractament. Això implica portar registres detallats de com es processen les dades, realitzar avaluacions d’impacte sobre la privadesa i adoptar mesures preventives per protegir les dades personals.

Precisament, un dels desafiaments més grans que enfronta la implementació de la Intel·ligència Artificial en la protecció de dades és el biaix algorítmic o “Machine Bias”, i com aquest es relaciona amb el principi de legalitat. Aquest últim exigeix que els responsables del tractament de dades personals adoptin mesures per prevenir tractaments que puguin afectar els drets fonamentals dels individus. Aquí sorgeix una pregunta crítica: què passa quan una IA discrimina un usuari en una decisió automatitzada? En teoria, els algoritmes són fórmules matemàtiques neutrals i objectives. Però, a la pràctica, poden replicar prejudicis humans, com ara la discriminació per gènere o raça.

En particular, el biaix algorítmic es manifesta quan un sistema informàtic reflecteix els valors i prejudicis de les persones involucrades en la seva creació i en la recopilació de dades utilitzades per entrenar-lo. La IA és eficaç per identificar patrons i agilitzar processos amb grans volums d’informació (Big Data). El problema és que si s’alimenta de dades esbiaixades, inevitablement reflectirà aquestes inclinacions. Els biaixos es poden classificar en tres tipus:

  • Biaix estadístic. Un dels subtipus d’aquesta categoria és el biaix de selecció. En aquest cas, la mostra de dades no és representativa de la població total o no és prou aleatòria. Per exemple, si investiguem l’efectivitat d’un mètode educatiu basat només en els estudiants amb millors qualificacions.
  • Biaix cultural. Aquest deriva de la societat i el llenguatge. Reflecteix estereotips i prejudicis culturals apresos al llarg del temps. Els estereotips regionals són un exemple clar d’aquest tipus de biaix.
  • Biaix cognitiu. Aquest biaix està associat a les nostres creences personals i que poden “filtrar-se” en fer servir Intel·ligència Artificial en la protecció de dades i en el seu tractament. Per exemple, tendim a validar notícies que coincideixen amb les nostres opinions, tot i ser falses.

En realitat, la imparcialitat d’un programa de IA pot veure’s compromesa pels mètodes d’aprenentatge automàtic (*Machine Learning*) i aprenentatge profund (*Deep Learning*). Aquests algoritmes s’entrenen amb grans volums de dades etiquetades. A tall d’il·lustració, un algoritme de classificació pot aprendre a identificar gats en fotos si se li proporcionen milions d’imatges de gats. Igualment, un algoritme de reconeixement de veu pot transcriure el llenguatge parlat amb gran precisió si se l’alimenta amb suficients mostres de veu i transcripcions corresponents.

A mesura que els algoritmes reben més dades etiquetades, el seu rendiment millora. Així i tot, això també significa que poden desenvolupar punts cecs basats en les dades específiques amb què van ser entrenats. Aquests punts cecs poden resultar en prejudicis i discriminacions inadvertides quan l’algoritme s’enfronta a noves situacions o dades diferents.

Per tot l’anterior, l’elaboració de perfils i les decisions automatitzades presenten riscos significatius per als drets i llibertats individuals. Sovint, aquests processos són opacs, cosa que significa que les persones poden no ser conscients que s’està creant un perfil sobre elles. O bé, no comprendre completament les implicacions d’aquesta acció. L’elaboració de perfils pot perpetuar estereotips i segregació social, encasellant les persones en categories específiques i limitant les seves opcions, com les preferències suggerides per a llibres, música o notícies.

En alguns casos, les decisions basades en perfils poden ser inexactes, portant a prediccions errònies sobre el comportament o les preferències d’una persona. Això pot resultar en la denegació de serveis i béns, i en una discriminació injustificada. 

Per minimitzar aquests riscos, és crític implementar garanties adequades que protegeixin els drets i llibertats dels individus. Això inclou la transparència en els processos d’elaboració de perfils i decisions automatitzades, assegurant que les persones comprenguin com s’utilitzen les seves dades i quines implicacions tenen. De la mateixa manera, és imprescindible monitoritzar i corregir contínuament els algoritmes per evitar i corregir biaixos, garantint un tractament just i equitatiu de les dades.

En paral·lel, s’han d’implementar altres mesures per reduir l’impacte negatiu de la Intel·ligència Artificial en la protecció de dades personals. Entre elles, que els responsables del tractament garanteixin que el sistema de IA es nodreixi de dades rellevants i precises, aprenent a identificar i emfatitzar la informació correcta. És essencial que la IA no processi dades sensibles, com ara l’origen racial o ètnic, les opinions polítiques, la religió, les creences o l’orientació sexual. D’aquesta manera, és factible evitar tractaments arbitraris que puguin resultar en discriminació.

L’article 22 del Reglament General de Protecció de Dades (RGPD) estableix que els ciutadans europeus tenen el dret a no ser objecte de decisions basades únicament en el tractament automatitzat. Això inclou l’elaboració de perfils, si aquests produeixen efectes jurídics significatius o afecten de manera similar. En conseqüència, si una sol·licitud de crèdit, per exemple, és denegada automàticament per un sistema de IA, el titular de les dades té el dret a oposar-se a aquest tractament. L’adequat tractament de les dades implica informar l’usuari que la decisió ha estat automatitzada, permetent-li expressar la seva opinió. Fins i tot, ha de permetre-li impugnar la decisió i sol·licitar la intervenció humana en el procés de revisió de la decisió presa per l’algoritme.

El març de 2024, l’Eurocambra va aprovar la Llei d’Intel·ligència Artificial. Aquesta representa un avanç significatiu en la regulació de la tecnologia que ens ocupa a nivell mundial. Davant el ràpid progrés i integració de la IA en múltiples sectors, la Unió Europea (UE) va reconèixer la necessitat d’un marc legal que fomenti la innovació i el desenvolupament tecnològic, alhora que protegeixi la seguretat, privadesa i drets fonamentals dels ciutadans.

En aquest sentit, la referida normativa adopta un enfocament basat en el risc, classificant els sistemes de IA segons el seu potencial impacte en la societat i els individus. Els sistemes d’alt risc, com aquells emprats en vigilància o que influeixen en decisions judicials, estaran subjectes a requisits estrictes abans de la seva implementació. Els punts clau de la Llei són:

  • Transparència. Els sistemes de IA han de ser dissenyats perquè les seves operacions siguin comprensibles per als usuaris, garantint així una major transparència.
  • Responsabilitat. La legislació establirà normes clares sobre la responsabilitat en cas que un sistema de IA causi danys o perjudicis.
  • Seguretat i privadesa. Al respecte, la llei exigirà que els sistemes d’Intel·ligència Artificial en la protecció de dades siguin segurs i respectin la privadesa d’aquesta informació.
  • Supervisió. S’implementaran mecanismes de supervisió per assegurar el compliment continu amb la llei.

En raó d’això, les empreses i desenvolupadors que creen o utilitzen sistemes de IA hauran de complir amb una sèrie d’obligacions legals. Aquestes inclouen la realització d’avaluacions d’impacte i la implementació de mesures correctives en cas d’identificar riscos. La llei també estableix sancions significatives per a aquells que no compleixin amb les regulacions, subratllant la serietat amb què la UE aborda aquest tema.

Encara que la nostra especialitat a ISERN és el registre i protecció de patents i marques, podem assessorar-te també sobre la legalitat de les accions de la teva marca en el tractament de dades personals dels teus clients.

Per tant, si fas servir eines d’Intel·ligència Artificial en la protecció de dades i en el seu aprofitament, pots consultar-nos.

Nom*
Aquest camp només és per validació i no s’ha de modificar.