A 70 años de la Declaración Universal de los Derechos Humanos: garantías fundamentales en la era de la tecnología

«A 70 años de la Declaración Universal de los Derechos Humanos: garantías fundamentales en la era de la tecnología», tribuna de Daniel Valverde, abogado de ECIJA.

Mediante la Resolución 217 A (III) de la Asamblea General de las Naciones Unidas, el 10 de diciembre de 1948 en París, se adoptó la Declaración Universal de Derechos Humanos: instrumento pilar del ordenamiento internacional en la materia.

La Declaración es un documento de 30 artículos que delimitó los principios básicos que debían proteger los Estados en el período de la posguerra. Entre los más emblemáticos: el derecho a la vida, el derecho a la libertad, el derecho a la no-discriminación, el derecho a las garantías procesales en el derecho penal, el derecho de constituir una familia, la libertad de expresión, derechos económicos, sociales y culturales, entre otros.

Dicha Declaración fue la base del resto de normativa internacional en la rama de los derechos humanos. Su impacto y relevancia gestó todos los demás pactos internacionales, como el Pacto Internacional de Derechos Civiles y el Pacto Internacional de Derechos Económicos, Sociales y Culturales.

El 10 de diciembre del 2018 la Declaración cumplirá 70 años. La humanidad, de la mano de la tecnología, ha cambiado drásticamente nuestra forma de vivir en ese lapso de tiempo. ¿Cómo deben modernizarse las protecciones a los derechos fundamentales frente a los retos de la tecnología?

Supervisión masiva. Uno de los grandes temas de nuestra época es la supervisión masiva a la cual todos los ciudadanos del mundo estamos sujetos, ya sea a través de gobiernos o empresas. Son harto conocidos los casos en los cuales se han encontrado violaciones de derechos humanos en esos campos.

Por ejemplo, la Corte Europea de Derechos Humanos dictaminó que el esquema utilizado por el Reino Unido respecto a la interceptación masiva de tráfico de internet violaba el derecho a la privacidad y a la libertad de expresión, aunque, curiosamente, dijo que ese tipo de programas no eran “intrínsecamente” ilegales.

También, el uso indiscriminado de información personal que fue sustraída de Facebook puso sobre el tapete la responsabilidad de las empresas que captan y comercializan información sensible de sus usuarios.

¿Cómo responderá los derechos humanos a la privacidad y la intimidad cuando estamos más vigilados que nunca?

Ser discriminado por ¿inteligencia artificial? La automatización de procesos ha sido una constante desde la Revolución Industrial. Más aún con el avance de la inteligencia artificial, que es lo suficientemente flexible para “aprender” y mejorar, donde cada vez es más frecuente que delegamos una decisión o tarea a este tipo de programas.

Ahora bien, la proliferación de estos elementos puede conllevar a situaciones particulares que el derecho internacional todavía no ha explorado. La inteligencia artificial, ejecutada de manera incorrecta, podría perpetuar el sesgo humano y derivar en prácticas discriminatorias ya prohibidas.

Una reciente noticia revela que una inteligencia informática en Amazon, que fue diseñada para ayudarlos en el proceso de reclutamiento y selección, “aprendió” a discriminar a las candidatas mujeres. Esto porque su base de datos se alimentó de las decisiones de reclutamiento de los últimos 15 años, los cuales, lamentablemente, tenían pocas mujeres.

 ¿Qué sucede si un programa informático genera una violación a derechos fundamentales, o niega su acceso a ciertas personas? ¿Quién es el responsable de esa violación? ¿Debería haber supervisión estatal para que dichas violaciones no sucedan?

Blockchain y derechos humanos. No todo son malas noticias en el área de la innovación y los derechos humanos. El blockchain se ha utilizado como una herramienta que ayuda a fiscalizar el cumplimiento de derechos fundamentales.

En palabras sencillas, esta herramienta es un libro de cuentas digitales en los que los registros (los bloques) están conectados y cifrados entre sí. Es una base de datos compartida, transparente, que puede ser verificada por todas las partes involucradas, sin posibilidad de alteración.

Estas características del blockchain prometen dar mayor transparencia a las transacciones de cualquier índole. En otras palabras, da confianza en aquellos campos donde la confianza no existe.

El uso del blockchain permitiría mayor control para verificar el cumplimiento de los estándares mínimos laborales en instrumentos internacionales, como la prohibición del trabajo infantil, por ejemplo. Dado que los registros no pueden ser modificados sin que toda la cadena se percate, se permite trazar, por ejemplo, qué proveedores en la cadena de producción siguen ciertos estándares en la confección de mercadería o en la entrega de un servicio.

¿Quiere saber si el pescado que compra en el supermercado no fue atrapado por personas en condición de esclavitud en el sudeste asiático? ¿Quiere saber si la persona que cosió su suéter no es un menor de edad? Ya hay casos de éxito donde las empresas han tenido mayor fiscalización, lo que se traduce en mayor protección de los derechos humanos de grupos vulnerables.

Adaptarse al cambio. Los derechos humanos deben adaptarse ante los constantes cambios de la tecnología para seguir preservando las garantías fundamentales. Ya vemos casos de éxito en donde la tecnología permite una mayor protección de derechos humanos, pero también situaciones donde la tecnología tiene un efecto negativo en nuestros derechos básicos.

A los 70 años de la Declaración, debemos mantenernos vigilantes para que los derechos humanos no pierdan relevancia en el mundo moderno.

El reto de la vivienda asequible

«El reto de la vivienda asequible», tribuna de Jordi Bonet, socio de ECIJA, para The Law Clinic.

Hace unos días, el Pleno del Consejo Municipal del Ayuntamiento de Barcelona aprobó provisionalmente una Modificación puntual del Plan general metropolitano de Barcelona para la obtención de vivienda protegida (en adelante, MPGM).

Entre otras determinaciones, esta Modificación prevé destinar el 30% del techo potencial de vivienda plurifamiliar en aquellas parcelas de más de 600m2 de las zonas con este destino (claves 11, 12, 13, 14, 15, 16, 18 y 20), a vivienda de protección pública.

La aplicación de este porcentaje, que se prevé para el caso de una actuación edificatoria de nueva construcción o una gran rehabilitación en suelo urbano consolidado, pretende mitigar el déficit de viviendas de protección pública sin indicar ni cuantificar con gran defecto lo que la medida dará de sí.

La finalidad perseguida se instrumenta no obstante erróneamente a través de la regulación de los usos propios de las zonas que admiten el uso de vivienda plurifamiliar, en lugar de determinar la localización concreta de reservas para la construcción de viviendas de protección pública mediante la calificación de terrenos para esta finalidad como debería de ser, conforme al artículo 57 del Texto refundido de la Ley de urbanismo vigente, aprobado por el Decreto Legislativo 1/2010, de 3 de agosto, y el artículo 17 de la Ley 18/2007, de 28 de diciembre, del derecho a la vivienda.

Su aplicación incidirá también sobre el régimen de las comunidades de propietarios, creando situaciones sustancialmente desiguales entre los titulares de viviendas libres y aquellos de las viviendas de protección oficial del mismo edificio, con condiciones de edificación objetivamente diferenciadas que no se han tenido en cuenta y que complicarán y encarecerán los proyectos y su ejecución, lo que repercutirá sobre las viviendas libres, con incrementos de sus precios de compraventa y alquiler, circunstancias todas estas que dificultarán la puesta en marcha de la iniciativa y frenará la inversión y la actividad económica de la ciudad en beneficio de otros municipios de la conurbación metropolitana, que callan esperando su oportunidad.

Y no sólo esto. La materialización de la iniciativa dará lugar a una mayor densidad que la MPGM tampoco analiza, ni cuantifica atendiendo a la menor superficie del módulo de vivienda protegida, obviando al mismo tiempo las mayores reservas para zonas verdes y equipamientos públicos que sería necesario cumplimentar de acuerdo con lo que dispone el artículo 96.c) del mismo Texto refundido.

Además de limitar la disponibilidad del uso de vivienda en cada una de las zonificaciones afectadas, la MPGM trasciende negativamente la valoración del suelo y la fiscalidad de las fincas.

Según el informe de sostenibilidad económica la MPGM tiene carácter normativo y no requiere la asignación de recursos públicos. Esta afirmación, expresada como si fuera un éxito, no es gratuita: comportará una reducción de la recaudación del IBI y de las plusvalías, entre otros tributos, a medida que se adapten los valores catastrales a las nuevas actuaciones, generando probablemente desigualdades aún mayores entre los propietarios de viviendas de un mismo edificio.

La MGPM pendiente de aprobación por parte de la Subcomisión de Urbanismo de Barcelona competente no contiene un detalle de las actuaciones de calificación del suelo que hayan incorporado específicamente vivienda asequible en los últimos años, más allá de los importes destinados a operaciones de tanteo y retracto en el 2016 y en el 2017.

Esta deficiencia no es cualesquiera. Para evaluar una iniciativa es imprescindible que quien la abandera explique qué se ha hecho hasta ahora y cuales son los compromisos de inversión en un futuro inmediato, así como las previsiones de delimitación y desarrollo de sectores, polígonos de actuación o parcelas con aquel fin que lo justifique. Y todo ello, reconociendo las enormes dificultades que tiene resolver las necesidades de los ciudadanos de acceder a la vivienda, más problemática en Barcelona debido al estado de consolidación de su estructura urbana y sobre todo por razón de su centralidad.

Es evidente que el objetivo de la Ley del derecho a la vivienda de que en el plazo de veinte años el 15% de las viviendas principales existentes sean viviendas destinadas a políticas sociales es de una gran ambición. Mayor motivo para hacer creíbles las medidas que pretenden adoptarse, lo que la MPGM no alcanza, y que obliga a reconsiderarla.

Detectores de mentiras basados en inteligencia artificial para control migratorio: ¿el futuro de las fronteras europeas?

«Detectores de mentiras basados en inteligencia artificial para control migratorio: ¿el futuro de las fronteras europeas?», tribuna de Elena Peña, abogada de ECIJA, para The Law Clinic.

La inteligencia artificial se postula como una potencial solución a los crecientes embudos en los controles de fronteras de la zona Schengen. Sin embargo, ¿cuál es el impacto jurídico de estos procesos automatizados? Y, ¿qué efecto tienen en los derechos y libertades de los viajeros?

La libre circulación de personas en el espacio europeo es uno de los pilares de la Unión Europea. Gracias al Acuerdo Schengen las personas que gozaban del derecho a la libre circulación conforme al derecho de la Unión únicamente eran sometidas a inspecciones mínimas de su documentación a la hora de cruzar la frontera. Esto cambió hace año y medio con el Reglamento 2017/458[1], como respuesta al creciente fenómeno de los combatientes terroristas extranjeros, que hizo patente la insuficiencia de los controles fronterizos del momento para frenar el terrorismo.

Es por ello que, desde abril del año pasado, los europeos que entren o salgan del territorio de los Estados miembros son sometidos de manera sistemática a un chequeo más intenso. Este cambio ha contribuido a aumentar la presión a la que ya se venían siendo sometidos los puestos de control en las fronteras, incapaces de asumir los 700 millones de personas que entran al territorio de la UE cada año de manera eficiente.

Para hacer frente a este problema la Unión Europea está financiando un proyecto denominado iBorderCtrl (Intelligent Portable Control System), que consiste en un sistema de control inteligente. De esta manera, el proceso de control en la frontera quedaría dividido en dos etapas: inicialmente, el viajero sube a través de una aplicación online imágenes de su documento identificativo, visado y demás documentación, y responde a través de una webcam a las preguntas de un guardia de seguridad virtual. Estas preguntas pueden consistir, por ejemplo, en: “¿qué llevas en la maleta?” Y “si abres la maleta y me enseñas lo que hay dentro, ¿confirmará que has dicho la verdad?”. El iBorderCtrl analiza mediante tecnología basada en inteligencia artificial hasta 38 microexpresiones del viajero para determinar si está mintiendo.

En base a la información obtenida en esta primera etapa, el sistema clasifica a los viajeros por niveles de riesgo. Así, los que determine que suponen un riesgo bajo podrán cruzar la frontera tras un chequeo rápido de la información a modo de autenticación, mientras que aquellos clasificados como de mayor riesgo deberán someterse a controles más intensivos, que incluyen la comprobación de sus identificadores biométricos. Este paso es realizado también a través de iBorderCtrl, que reevaluará el nivel de riesgo asignado inicialmente con los nuevos datos obtenidos, y en el caso de que el sujeto siga siendo considerado como de riesgo alto un agente real tomará el relevo en la evaluación.

A pesar de lo futurista que pueda parecer esta propuesta, en la actualidad se encuentra en fase de prueba en Hungría, Grecia y Letonia, la cual se alargará hasta agosto del año que viene, y es determinante para ampliar la muestra y así el porcentaje de acierto del sistema.

Sin embargo, el uso iBorderCtrl plantea numerosos dilemas tanto éticos como legales, y existen detractores de la implantación de un “detector de mentiras” basado en machine learning para controlar la entrada y salida de la UE, tachándolo de pseudociencia y apelando a la falta de fiabilidad de estos sistemas.

Otro problema con el que se enfrenta esta tecnología es la potencial existencia de un sesgo en la muestra que conlleve la toma de decisiones discriminatorias por razón de raza, edad o sexo. En este sentido, tenemos el ejemplo de COMPAS en EEUU, un software utilizado por jueces para calcular la condena a imponer, el cual se demostró que consideraba a los acusados de raza negra como más susceptibles de reincidir que a los de raza blanca.

En lo relativo a la protección de datos, tampoco se halla exento de problemática. Por un lado, el RGPD establece que el tratamiento de datos personales debe limitarse al mínimo necesario para la finalidad perseguida. Atendiendo a las características de iBorderCtrl, parece complicado argumentar que no exista una manera menos intrusiva de llevar a cabo el control de seguridad en las fronteras.

En cuanto a la legitimación del tratamiento de datos personales, al no encontrarse este proceso previsto en la normativa nacional o europea como medio de control de entrada y salida de viajeros, no puede ampararse el tratamiento en el cumplimiento de una obligación legal. Es por ello que, por ahora, está basándose en el consentimiento, y en esta primera fase de despliegue únicamente se utilizará iBorderCtrl con los viajeros que otorguen un consentimiento informado, previéndose que podrá retirarlo en cualquier momento del proceso. De esta manera se estaría dando cumplimiento a su vez a lo previsto en el artículo 22 del RGPD, que requiere que en aquellos casos en que se lleve a cabo un tratamiento que conlleve la toma de decisiones de manera automatizada, se informe debidamente y se dé la posibilidad de oponerse en cualquier momento. Asimismo, mediante la intervención final del agente físico se asegura el derecho a obtener intervención humana en la decisión.

Debe tenerse en cuenta las implicaciones del uso de datos biométricos de los viajeros, como son la huella dactilar, el escaneo de las venas de la palma de la mano o la biometría facial. Estos datos son considerados por la normativa como datos de categoría especial o datos sensibles, y su uso está restringido y sometido a limitaciones. El antiguo Grupo de Trabajo del artículo 29, actual Comité Europeo de Protección de Datos, ha entendido que los tratamientos de este tipo de datos suponen un riesgo para los derechos y libertades de los interesados, más aún cuando va de la mano con el uso de tecnologías innovadoras o se apoya en Big Data, como es el caso. La consecuencia inicial de esto es la necesidad de realizar una evaluación de impacto (PIA por sus siglas en inglés), para determinar si mediante la adopción de unas medidas de seguridad suficientes puede reducirse el riesgo inherente al tratamiento a un nivel aceptable.

Este análisis tiene en su centro el eterno dilema de seguridad o libertad, si los derechos de los viajeros son sacrificables en aras de un espacio más seguro. La importancia radica en el diseño previo de esta tecnología, que, en base al principio de Privacy by Design, desde el origen se halla considerado la privacidad como guía y línea roja a respetar.

Hoy, el debate es en torno al control de nuestras fronteras, pero cada día surgen nuevas aplicaciones basadas en este tipo de tecnologías y, partiendo de que deben ser sometidas a rigurosos exámenes y analizadas con ojo crítico en su respeto a nuestros derechos, no debemos permitir que la legislación se convierta en un lastre para el progreso.

[1] Reglamento (UE) 2017/458 dl Parlamento Europeo y del Consejo de 15 de marzo de 2017 por el que se modifica el Reglamento (UE) 2016/399 en lo relativo al refuerzo de los controles mediante la comprobación en las bases de datos pertinentes en las fronteras exteriores.

La llegada de IDD y su impacto en la privacidad

«La llegada de IDD y su impacto en la privacidad», tribuna de Inmaculada Aller, abogada de ECIJA para The Law Clinic.

Los principales cambios que se introducen con La Directiva 2016/97 del Parlamento Europeo y del Consejo del 20 de enero de 2016, sobre la distribución de seguros, (en adelante, IDD) y su impacto en la Privacidad y la normativa de Protección de Datos, la cual debería haber sido objeto de transposición con fecha límite prorrogada a 1 de octubre de 2018. España no ha llegado a tiempo a la transposición de la Directiva; el pasado 2 de octubre de 2018 se publicaron las Enmiendas presentadas por los diferentes Grupos Parlamentarios al Proyecto de Ley de Distribución de Seguros y Reaseguros Privados.

¿Qué novedades introduce IDD desde el punto de vista de la normativa de seguros?

La IDD fija como objetivos principales: alcanzar mayor claridad en la información que se facilita al tomador del Seguro a través de la regulación y armonización del sector de seguros, para que de este modo se pueda alcanzar una competencia leal entre los intervinientes, incluyendo como sujetos obligados a figuras que  hasta ahora eran operadores habituales el Mercado de Seguros, pero no habían sido objeto de regulación, como los comparadores de seguros.

De este modo, la IDD amplía el ámbito de aplicación, a los distribuidores de seguros en sentido general, lo que incluye a las aseguradoras, los intermediarios de seguros complementarios y los mencionados anteriormente, comparadores de seguros. De esta forma, las figuras que realmente operaban en el mercado pasan a ser objeto de regulación normativa para dar respuesta a la realidad vigente del sector seguros.

Con la finalidad de alcanzar la liberalización del Mercado de Seguros, desaparece la limitación existente hasta ahora, que impedía que las entidades financieras pusiesen su red de distribución a disposición de más de un  operador de banca seguros, lo que permitirá un funcionamiento más eficiente del Mercado.

Teniendo en cuenta que uno de los principales objetivos de la IDD es proporcionar mayor información al tomador del Seguro, para su consecución la IDD introduce un deber reforzado de información a facilitar al tomador del Seguro; esta obligación tiene especial incidencia no sólo en los sujetos que estaban obligados hasta ahora, y que  deberán realizar un esfuerzo de adaptación  para dar cumplimiento a las novedades introducidas; sino también a los nuevos sujetos obligados como los comparadores de seguros, que deberán prestar especial atención a su política de información asegurando su transparencia, informando de manera clara y comprensible sobre el producto ofertado, lo que se concreta en proporcionar un documento independiente que incluya la información detallada, clara y concisa sobre el producto ofertado.

¿Que impacto tendrá la IDD en la normativa de protección de datos?

Desde el punto de vista de la privacidad y protección de datos, la IDD  remite a la Directiva 95/46, que ha sido derogada por el Reglamento 2016/ 679 (en adelante RGPD), por tanto, los distribuidores de seguros estarán sujetos a RGPD, con las especialidades que la normativa sectorial establezca, en nuestro caso la Ley de Distribución de Seguros.

El Proyecto de Ley de Distribución de Seguros, regula determinados aspectos en materia de Protección de Datos pero hace referencia a la Ley Orgánica de Protección de Datos, que aunque vigente, debe ser adaptada al RGPD.  Los aspectos desarrollados en el presente análisis, estará sujeto a posibles modificaciones dado que aún no ha sido aprobado el texto definitivo de la Ley de Distribución de Seguros.

En cuanto a la consideración de los roles de responsable y encargado de los intervinientes en el Mercado de Seguros, establece que los agentes de seguros y operadores banca seguros tendrán la condición de encargado del tratamiento respecto a los contratos suscritos con la aseguradora;  los Corredores de seguros y reaseguros, serán responsables del tratamiento respecto de las personas que acudan a ellos; y los colaboradores externos tendrán la condición de encargados del tratamiento respecto a  los contratos suscritos con los agentes de seguros o corredores. No se introducen por tanto, novedades en la consideración de los roles, respecto a la vigente Ley de Mediación.

Otro de los aspectos relevantes a tener en cuenta, para la adaptación a RGPD, es el referente a la inclusión del acuerdo que regule el encargo de tratamiento, conforme a lo establecido en el artículo 28 de RGPD; tanto en  el contrato de agencia que regule la relación de los agentes de seguros y operadores con la aseguradora,  como en los contratos mercantiles suscritos con los colaboradores externos con los agentes de seguros o corredores.

El Proyecto de Ley establece que los operadores banca seguros no podrán tratar los datos relacionados con su actividad mediadora para fines propios de su objeto social sin contar con el consentimiento inequívoco y específico de los afectados; esta obligación refuerza la línea marcada por el RGPD, de tal forma que deberá solicitarse el consentimiento separado para las diferentes finalidades de tratamiento pretendidas.

Respecto a los corredores de seguros podrán tratar los datos de las personas que se dirijan a ellos, sin necesidad de contar con su consentimiento, cuando sea antes de celebrar el contrato para ofrecerles asesoramiento, y una vez celebrado, para ofrecerles asesoramiento basado en un análisis objetivo y personalizado.

Incluye como novedad, el tratamiento de los datos que los distribuidores de seguros, lleven a cabo para valorar la honorabilidad comercial y profesional en el marco de lo dispuesto en la Ley respecto a las personas que tengan acceso a los datos, y se deberá limitar a la exclusiva finalidad del suministro de la información a la DGS (Dirección General de Seguros), no pudiendo ser utilizado para otras finalidades.

En conclusión, desde el punto de vista de privacidad y protección de datos, el Proyecto de Ley de Distribución de Seguros, no introduce novedades  respecto a la anterior Ley de Mediación de Seguros, salvo la mención referente al tratamiento de los datos de los distribuidores con fines para valorar la honorabilidad comercial y profesional que exige el nuevo Proyecto de Ley, quedando sin regular el rol que ocuparán los nuevos distribuidores de seguros (entre ellos los comparadores de seguros). Dado que en la Directiva se hace referencia a normativa de protección de datos derogada por el RGPD, y en el Proyecto de Ley se remite a la actual Ley Orgánica, debemos tener en cuenta que en materia de protección de datos debemos adaptarlo a los principios actualmente vigentes, prestando especial atención al deber de información (artículo 13 RGPD) y a la regulación de la relación con el encargado del tratamiento (artículo 28 RGPD).