Concretament, les dues parts col·laboraran per la implementació del model FRIA català per una IA confiable com a model de referència en els seus àmbits d’actuació. Es tracta d’una metodologia pionera a Europa, impulsada per l’APDCAT en el marc de la comunitat ‘DPD en xarxa’, i en col·laboració amb el professor i expert Alessandro Mantelero. Serveix per guiar els desenvolupadors de SIA a l’hora d’identificar possibles riscos per als drets fonamentals i com mitigar-los, i s’ha desenvolupat aplicada a casos concrets que serveixen d’exemple. L’acord que ara s’ha subscrit servirà per promoure la metodologia catalana també entre les organitzacions, empreses i entitats del Brasil, i per compartir els nous casos d’ús en què es pugui aplicar, i els resultats derivats del seu ús.
Des de la seva presentació oficial al Parlament de Catalunya el 28 de gener, l’APDCAT ha exportat el model FRIA català perquè esdevingui un referent nacional i internacionalment a l’hora de guiar els desenvolupadors de sistemes d’IA perquè els seus productes i serveis respectin els drets fonamentals i siguin confiables. En aquest sentit, l’Autoritat l’ha presentat i promogut durant tot aquest any a congressos, xarxes i fòrums d’arreu, com la Xarxa Iberoamericana de Protecció de Dades, l’Spring Conference, i països com Itàlia, Brasil, Colòmbia, Geòrgia i Costa Rica. Fruit d’aquest treball, l’APDCAT i l’Autoritat Basca de Protecció de Dades e dades van signar el passat mes de juny un acord per promoure el model català entre les entitats del País Basc, i també l’Autoritat de Protecció de Dades de Croàcia l’ha traduït al seu idioma i la recomana entre les entitats del seu àmbit d’actuació.
D’altra banda, l’acord servirà per brindar suport tècnic i intercanviar coneixements i experiències pel que fa al desplegament de sandboxes regulatoris en IA. Són espais controlats de proves perquè les autoritats competents i els proveïdors de SIAs treballin conjuntament en la definició de bones pràctiques en l’ús d’IA abans de sortir al mercat. L’objectiu és que els projectes d’IA siguin segurs, confiables i respectin els drets fonamentals. Així, els sandboxes permeten treballar en casos concrets de manera supervisada, durant un temps determinat i sota unes condicions concretes. I aquests projectes concrets han de servir per guiar i ser un referent per desenvolupar projectes amb IA d’acord amb la normativa vigent, especialment per petites i mitjanes empreses, emprenedors i empreses emergents.
A Europa, el Reglament d’Intel·ligència Artificial (RIA) estableix l’obligació que les autoritats competents de tots els estats membre proporcionin sandboxes regulatoris en IA en l’àmbit nacional, regional i local a partir de l’agost del 2026.
L’objectiu és millorar la seguretat jurídica, donar suport a l’intercanvi de bones pràctiques, fomentar la innovació i la competitivitat, així com facilitar el desenvolupament d’un ecosistema d’IA, contribuir a un aprenentatge normatiu basat en dades contrastades, i facilitar i accelerar l’accés al mercat dels sistemes d’IA, en particular pel que fa a pimes i empreses emergents.
En aquest sentit, el passat mes de juny l’ANPD va obrir la convocatòria per a la participació en un Sandbox regulatori pilot en Intel·ligència Artificial i Protecció de Dades al Brasil, amb l’objectiu d'experimentar amb tècniques i tecnologies innovadores o models de negoci.
Igualment, el memoràndum preveu desenvolupar programes d'educació, formació i sensibilització en matèria de protecció de dades personals, així com promoure estudis i investigacions conjuntes, especialment pel que fa a la intel·ligència artificial i la privacitat. Finalment, les parts intercanviaran informació relativa a bones pràctiques en matèria de polítiques de privacitat i protecció de dades personals, amb l’objectiu de millorar la defensa dels drets fonamentals de la ciutadania.
Ultima actualització: 10.02.2026