PUBLICITAT

Reconeixement facial i prevenció de delictes

L’any 2002 el cineasta Steven Spielberg ens va ensenyar a través de la pantalla un món completament diferent del que vivíem. Un món apassionant i futurista, on la policia nord-americana és capaç d’arrestar i jutjar assassins abans que aquests puguin cometre els crims. Així doncs, la idea de l’ús de sistemes capaços de predir futurs crims es va veure per primera vegada a la pel·lícula Minority Report, adaptació del relat escrit per Phillip K. Dick l’any 1956. Tot i que els mecanismes que s’utilitzen en aquesta història són éssers humans que tenen visions sobre el futur (els anomenats precogs), el que en aquell moment ens semblava una ciència-ficció molt llunyana, actualment està a l’ordre del dia en la investigació i prevenció de delictes en molts països. En efecte, l’ús de la Intel·ligència Artificial (IA, per les seves sigles) per part de les autoritats policials permet, entre altres coses, el reconeixement de persones delinqüents i la predicció de delictes. Un bon exemple de policia predictiva el podem trobar en un sistema d’IA dissenyat per un grup d’investigadors de la Universitat de Chicago, capaç de predir amb una setmana d’antelació en quines zones de la ciutat hi haurà més delinqüència. L’eina té un percentatge d’encert del 90%, el qual el fa destacar entre molts altres sistemes de policia predictiva. D’acord amb la presentació que es va fer del sistema a la revista Nature Human Behaviour, el model es va entrenar amb dades històriques de delictes violents i contra la propietat de la ciutat de Chicago durant els anys 2014 i 2016. Després de processar la informació, l’eina anticipa les zones amb més alts nivells de criminalitat i en les quals és més probable que es cometin delictes.

No hi ha dubte que és una gran ajuda per les autoritats policials i un mecanisme molt útil per evitar o disminuir la criminalitat. No obstant això, els dilemes que planteja Minority Report són perfectament extrapolables en aquest cas: com han d’actuar les autoritats policials tenint aquesta informació? Poden intervenir en els barris més perillosos segons la IA sense que s’hagi comès cap delicte? Què passaria si es detingués una persona innocent a qui la IA ha qualificat erròniament com a delinqüent? Com podem veure, una de les màximes preocupacions d’aquests sistemes és que se’n faci un ús desmesurat, augmentant el risc de sobre vigilància i abusos policials. A més, també existeix el risc de generar grans desigualtats entre els ciutadans i de ser un mètode extremadament invasiu de la seva privacitat. Això últim està present, en especial, en l’ús de sistemes de reconeixement automàtic d’individus en espais públics (per exemple, les càmeres de seguretat intel·ligents instal·lades al carrer).

Per tots aquests motius, la Unió Europea no és partidària d’utilitzar sistemes de policia predictiva ni biomètrics de vigilància massiva en temps real. De fet, a la Proposta de Reglament d’IA es troben integrats dins dels sistemes prohibits o de risc inadmissible, excepte en casos d’investigació de delictes greus i amb prèvia autorització judicial. Per tant, la qüestió de com la Unió Europea ha d’utilitzar les noves tecnologies per prevenir delictes i garantir la seguretat dels ciutadans ha estat un punt de discussió candent durant anys. El marc existent a la Unió Europea pel que respecta a la cooperació policial – conegut com a Prüm I – permet a les autoritats consultar les bases de dades nacionals dels altres estats membres pel que respecta a les dades d’ADN, empremtes dactilars i matriculació de vehicles. Des de desembre de 2021 les institucions europees han treballat per tirar endavant una Proposta de Reglament per actualitzar la legislació Prüm. Finalment, el passat dia 8 de febrer el Parlament Europeu va aprovar dita Proposta amb 451 vots a favor, 94 en contra i 10 abstencions. El principal objectiu de Prüm II és reforçar, racionalitzar i facilitar l’intercanvi de dades entre els estats membres i Europol, així com proporcionar eines millorades per tal de lluitar de manera eficaç contra la delinqüència i el terrorisme. Entre aquestes eines millorades es troben els intercanvis automatitzats de dades sobre imatges facials i registres policials, a través d’un sistema central que connecti amb els sistemes nacionals. A efectes pràctics, significa que hi haurà una gran base de dades amb els rostres de milions de ciutadans que estiguin sent investigats. D’entrada, el marc que crea Prüm II pot ser contradictori amb la línia que la Unió Europea sempre havia adoptat amb l’ús dels sistemes de reconeixement facial. Això es deu al fet que el reconeixement facial massiu comporta, inevitablement, riscos per a la protecció de dades personals. El que alerten diversos experts és que si un rostre s’assembla molt al d’un delinqüent podria generar problemes, ja que el que fa la tecnologia és donar un llistat dels rostres amb més percentatge de similitud, de manera que qui tingui el percentatge més alt probablement sigui el delinqüent, però la resta de rostres que figuren a la llista no tenen per què ser-ho.

Personalment, em decanto per pensar que és una manera que ha tingut la Unió Europea de justificar l’ús de les noves tecnologies per prevenir delictes, procurant no desviar-se de la postura que sempre ha mantingut. És cert que aquests sistemes són, en molts casos, invasius de la nostra privacitat. Però també és cert que l’amenaça de delinqüència i terrorisme cada cop és més alta i que els ciutadans demanem més seguretat. I, ens agradi més o menys, en un món tan globalitzat les millors eines que existeixen per prevenir delictes són les tecnològiques. Per suposat, no crec que haguem de renunciar per complet a la nostra privacitat ni convertir la nostra societat com la que ens mostra Spielberg a Minority Report, però hi ha situacions en les quals, potser, hauríem de ser més flexibles en matèria de privacitat per tal de garantir més la seguretat.

Comenta aquest article

PUBLICITAT
PUBLICITAT