Sala de Prensa

28 enero, 2021

Este artículo fue publicado en Expansión.

El 28 de enero se celebra el día internacional de la protección de datos personales y, por ende, de la privacidad, derecho sobre el que cada día debemos hacer mayores esfuerzos, como ciudadanos, entidades o administraciones públicas, para su protección, pues, entre otros, se ha generalizado el uso de la tecnología y con ello, la capacidad de explotación, de muy diversos modos, de grandes volúmenes de datos.

Así, en los últimos años se ha venido hablando de, el cada vez mayor, desarrollo y uso de sistemas que incorporan inteligencia artificial, en múltiples sectores y aplicaciones con el objetivo, en la mayoría de las ocasiones, de agilizar y facilitar procesos que van desde el conocimiento del cliente / usuario / consumidor, análisis de riesgos y detección de posibles fraudes, ayuda al diagnóstico médico, o simplemente, ayuda para la toma de decisiones.

Como decíamos, la base de la inteligencia artificial se encuentra en la capacidad de explotación de grandes volúmenes de datos a través del uso de algoritmos que permiten el análisis y segmentación de toda la información en base a los criterios que cada sistema establezca.

Pero, ¿a qué controles están sometidos estos sistemas, sus algoritmos y, sobre todo, los datos e informaciones en los que se basan? A priori es cada desarrollador y explotador quien decide y regula su sistema de inteligencia artificial en base a sus objetivos, y no existen, a nivel general, estándares, criterios o controles que permitan evaluar, auditar, e incluso, certificar las aplicaciones de inteligencia artificial, sus objetivos y resultados. Y esta es una necesidad, que, sin duda, debemos reclamar en nuestro rol de usuario, pero también gestionar, coordinar y regularizar a nivel de la entidad u organismo responsable del sistema, pues son cada vez más los procesos, incluso esenciales y vitales en el día a día de las personas, que se basan en este tipo de aplicaciones.

Si bien y como indicábamos, no existe a nivel general un estándar o buenas prácticas que permitan evaluar el conjunto de los elementos del sistema de inteligencia artificial, en los últimos años sí se han ido desarrollando guías y buenas prácticas, que establecen criterios y controles que se propone aplicar a distintos elementos de la aplicación de inteligencia artificial.

En este sentido, y en relación con la protección de datos de carácter personal, podemos reseñar la guía de auditoria de sistemas IA que recientemente ha publicado la Agencia Española de Protección de Datos (AEPD), con el fin de servir de referencia a la hora de establecer controles a los sistemas IA en relación, específicamente, con el tratamiento de datos personales.

Entre los controles propuestos cabe destacar los relativos a; (i) la identificación y transparencia del componente (o algoritmo), (ii) la finalidad y fundamentos de desarrollo de la aplicación o sistema IA, (iii) el aseguramiento en la gestión de los datos en cuanto a la calidad, origen de los mismos, y control del sesgo, así como (iv) procesos de verificación y validación de la aplicación, incluyendo aspectos tales como rendimiento, coherencia, estabilidad, robustez, trazabilidad, y por supuesto seguridad.

Sigue leyendo el artículo completo.

SOCIOS RELACIONADOS

María González