Concretamente, ambas partes colaborarán en la implementación del modelo FRIA catalán para una IA confiable como modelo de referencia en sus ámbitos de actuación. Se trata de una metodología pionera en Europa, impulsada por la APDCAT en el marco de la comunidad ‘DPD en red’, y en colaboración con el profesor y experto Alessandro Mantelero. Sirve para guiar a los desarrolladores de SIA a la hora de identificar posibles riesgos para los derechos fundamentales y cómo mitigarlos, y se ha desarrollado aplicada a casos concretos que sirven de ejemplo. El acuerdo ahora suscrito servirá para promover la metodología catalana también entre las organizaciones, empresas y entidades de Brasil, y para compartir los nuevos casos de uso en que se pueda aplicar, así como los resultados derivados de su uso.
Desde su presentación oficial en el Parlamento de Cataluña el 28 de enero, la APDCAT ha exportado el modelo FRIA catalán para que se convierta en un referente nacional e internacional a la hora de guiar a los desarrolladores de sistemas de IA para que sus productos y servicios respeten los derechos fundamentales y sean confiables. En este sentido, la Autoridad lo ha presentado y promovido durante todo este año en congresos, redes y foros de todo el mundo, como la Red Iberoamericana de Protección de Datos, la Spring Conference, y países como Italia, Brasil, Colombia, Georgia y Costa Rica. Fruto de este trabajo, la APDCAT y la Autoridad Vasca de Protección de Datos firmaron el pasado mes de junio un acuerdo para promover el modelo catalán entre las entidades del País Vasco, y también la Autoridad de Protección de Datos de Croacia lo ha traducido a su idioma y lo recomienda entre las entidades de su ámbito de actuación.
Por otra parte, el acuerdo servirá para brindar apoyo técnico e intercambiar conocimientos y experiencias en cuanto al despliegue de sandboxes regulatorios en IA. Son espacios controlados de pruebas en los que las autoridades competentes y los proveedores de SIA trabajan conjuntamente en la definición de buenas prácticas en el uso de IA antes de salir al mercado. El objetivo es que los proyectos de IA sean seguros, confiables y respeten los derechos fundamentales. Así, los sandboxes permiten trabajar en casos concretos de manera supervisada, durante un tiempo determinado y bajo unas condiciones específicas. Y estos proyectos concretos deben servir para guiar y ser un referente en el desarrollo de proyectos con IA de acuerdo con la normativa vigente, especialmente para pequeñas y medianas empresas, emprendedores y startups.
En Europa, el Reglamento de Inteligencia Artificial (RIA) establece la obligación de que las autoridades competentes de todos los Estados miembros proporcionen sandboxes regulatorios en IA en el ámbito nacional, regional y local a partir de agosto de 2026.
El objetivo es mejorar la seguridad jurídica, apoyar el intercambio de buenas prácticas, fomentar la innovación y la competitividad, así como facilitar el desarrollo de un ecosistema de IA, contribuir a un aprendizaje normativo basado en datos contrastados, y facilitar y acelerar el acceso al mercado de los sistemas de IA, en particular para pymes y startups.
En este sentido, el pasado mes de junio la ANPD abrió la convocatoria para la participación en un Sandbox regulatorio piloto en Inteligencia Artificial y Protección de Datos en Brasil, con el objetivo de experimentar con técnicas y tecnologías innovadoras o modelos de negocio.
Asimismo, el memorando prevé desarrollar programas de educación, formación y concienciación en materia de protección de datos personales, así como promover estudios e investigaciones conjuntas, especialmente en lo que respecta a la inteligencia artificial y la privacidad. Finalmente, las partes intercambiarán información relativa a buenas prácticas en materia de políticas de privacidad y protección de datos personales, con el objetivo de mejorar la defensa de los derechos fundamentales de la ciudadanía.
Última actualización: 10.02.2026