PUBLICITAT

ChatGPT i els seus reptes jurídics

La companyia OpenAI va llençar el passat mes de novembre l’eina d’Intel·ligència Artificial (IA) que no tardaria a estendre’s i popularitzar-se arreu del món: ChatGPT. L’aparició d’aquest chatbot capaç de simular converses humanes ha donat lloc a uns mesos realment convulsos pel món de la IA, generant una gran quantitat de debats i opinions de tot tipus. Molt s’ha parlat i escrit sobre els avantatges i els riscos ètics, tecnològics i sociològics d’aquesta nova eina. Però tampoc són poques les implicacions jurídiques que comporta l’auge de ChatGPT i, en general, de les IA, especialment en matèria de protecció de dades personals.

El passat mes de març vàrem conèixer la notícia que Itàlia va prohibir temporalment l’ús de ChatGPT en tot el territori del país. Un dels motius principals d’aquest bloqueig fou, d’acord amb el Garant per a la Protecció de Dades Personals italià (GPDP), un possible incompliment del Reglament General de Protecció de Dades de la Unió Europea (RGPD). Per a poder entendre aquestes possibles vulneracions, cal assenyalar, en primer lloc, que dit Reglament obliga els responsables del tractament de dades personals a informar els interessats – o usuaris – sobre la finalitat del tractament, així com la seva base de legitimació. En efecte, les autoritats italianes posaren de manifest que la companyia OpenAI no mostrava cap tipus d’informació sobre quines dades personals recopilava i processava per l’entrenament dels seus algoritmes. Tampoc oferia informació sobre la base jurídica del tractament, és a dir, si ho feia a través del consentiment de l’usuari, execució d’un contracte, interès legítim, etc. Destacava també la dificultat per part dels interessats de poder exercir el seu dret d’oposició, això és, a oposar-se al tractament de dades personals consistent en l’entrenament dels models d’IA.

Al mes d’abril, el GPDP italià va aixecar la prohibició temporal a l’entendre que OpenAI havia implementat alguns canvis a l’aplicació que brindaven «més transparència i drets als usuaris». No obstant això, l’actuació de l’autoritat italiana ha estat la gota que ha fet vessar el got.

A partir d’aleshores, països europeus com Espanya, França, Alemanya o Irlanda han anat mostrant la seva preocupació entorn de la manca de regulació de les IA com ChatGPT. L’Agència Andorrana de Protecció de Dades tampoc s’ha quedat de braços plegats al respecte, perquè forma part de l’acció coordinada de la Xarxa Iberoamericana de Protecció de Dades per la supervisió de ChatGPT.

El cert és que el debat que ChatGPT ha generat entre la comunitat jurídica no és més que el reflex de gran part dels interrogants i projectes normatius sobre protecció de dades i IA que la Unió Europea fa anys que té sobre la taula. De fet, l’auge desmesurat de ChatGPT ha obligat la UE a accelerar aquest procés normatiu, i la prova d’això ha estat la recent aprovació pel Parlament Europeu de la proposta de Reglament per la Llei d’IA. A través d’aquesta Llei – la primera integral sobre IA de tot el món - Europa busca oferir una regulació mínima per tal de respondre als riscos i problemes vinculats a la IA, sense que això comporti un obstacle al desenvolupament tecnològic. En altres paraules, tracta de trobar l’equilibri entre la seguretat i la protecció dels drets fonamentals dels usuaris amb el foment de la inversió tecnològica. La pregunta és com afectarà aquesta nova Llei europea a ChatGPT. En ser una IA generativa, probablement haurà de complir diversos requisits addicionals de transparència.

Són moltes les opinions que està generant aquesta nova Llei de la Unió Europea. N’hi ha que consideren – i amb bon criteri – que es tracta d’un marc idíl·lic i poc pràctic que planteja Europa en matèria d’IA sota l’argument de la defensa dels drets dels ciutadans. Personalment, em decanto per pensar que és una nova demostració de la forta aposta que Europa està fent per ser pionera mundial en regulacions en matèria de Dret Digital. No hem d’oblidar que es tracta de la primera Llei integral d’IA que s’ha fet mai, i considero que és necessari que s’adopti una estratègia normativa per regular els fenòmens tecnològics que tenen una clara incidència sobre els nostres drets fonamentals.

Tal com està plantejat el nostre ordenament jurídic, així com l’europeu, no seria per res bo caure en models de poc o nul control sobre eines com ChatGPT.

Evidentment, ara caldrà esperar a l’entrada en vigor de la Llei per veure quines són les conseqüències reals que es deriven de la seva aplicació pels proveïdors que vulguin implantar els seus sistemes de IA a Europa. El que és probable, des del meu punt de vista, és que s’hagin de veure sotmesos a constants avaluacions d’impacte de drets fonamentals, i depenent dels resultats, que hagin de complir requisits tècnics i informatius que potser en molts altres països no li seran exigits. En definitiva, el temps dirà si això suposa per a les empreses tecnològiques una barrera d’entrada al mercat de la UE, o si funciona com la base per a tercers països per tal d’adaptar-se al model europeu. 

Comenta aquest article

PUBLICITAT
PUBLICITAT