Los reportajes con cámara oculta y la distorsión de la voz

«Los reportajes con cámara oculta y la distorsión de la voz», artículo de Antonio Balibrea, abogado de ECIJA, para The Law Clinic.

Muchas son las herramientas que son utilizadas en el ámbito periodístico para investigar fenómenos o acontecimientos que suceden en nuestra sociedad para poder informar al público en general.

En este sentido, el artículo 20.1 de la Constitución Española reconoce el derecho fundamental “a comunicar o recibir libremente información veraz por cualquier medio de difusión”, siempre que los hechos sean noticiables. Esta protección alcanza tanto a las informaciones expresadas por medios escritos u orales o por medio de imágenes gráficas, según establece la Jurisprudencia existente al respecto.

En este contexto, una de las técnicas periodísticas que vuelven a ser muy utilizadas en el momento actual es el de la conocida como “cámara oculta”, es decir, la grabación de unos hechos en el que intervienen una serie de personas sin su consentimiento.

Estos reportajes, naturalmente, tienen como principal virtud la captación de circunstancias en su estado puro, reflejando fielmente la realidad, sin la distorsión en el desarrollo de los hechos que puede provocar la presencia de un periodista acreditado.

Sin embargo, esta técnica periodística no está exenta de riesgos ya que su uso provoca una evidente injerencia en el derecho a la propia imagen y a la intimidad de las personas protagonistas del reportaje que están siendo grabadas sin su conocimiento.

Como en toda confrontación de derechos fundamentales – en este caso, libertad de información vs. honor e intimidad personal- se ha de realizar una ponderación constitucional de ambos derechos a fin de determinar cuál prevalece atendiendo a al bien jurídico que se pretende proteger.

Así las cosas, las últimas sentencias del Tribunal Supremo permiten el uso de la cámara oculta cuando esta herramienta sea proporcionada para investigar casos de relevancia pública, como son las tramas de corrupción política o económica (STS 114/2017), sin que quepa su uso para grabar situaciones para satisfacer las necesidades de los telespectadores ávidos de curiosidad o por puro morbo.

Sentado lo anterior, en la emisión de los reportajes periodísticos con uso de cámara oculta se acostumbra a pixelar la cara de los protagonistas cuando se trata de personas anónimas a fin de proteger su identidad y evitar vulneraciones de su derecho a la propia imagen.

Sin embargo, este gesto que se tiene a favor del interviniente puede que, en determinadas ocasiones, no sea suficiente para evitar dicha vulneración a la propia imagen, ya que existen numerosos elementos por los cuales una persona puede ser reconocida por terceros, a pesar de que se difumine su cara.

En efecto, los sujetos protagonistas de estos reportajes pueden ser perfectamente reconocidos por el público en general por otros elementos distintos de la cara, como la voz, la silueta de la persona (o incluso, por qué no, su sombra), por lo que si no se toman medidas al respecto de estos elementos también se estaría vulnerando el derecho a la propia imagen.

En este punto hay que recordar que la Jurisprudencia existente al respecto reconoce que el derecho a la propia imagen “garantiza el ámbito de libertad de una persona respecto de sus atributos más característicos, propios e inmediatos” (STC 117/1994), es decir, se garantiza el derecho de las personas a determinar qué información gráfica generada por sus rasgos físicos, que le hagan reconocible, se pueda difundir, sin su consentimiento.

Y es que como declaró la STS 853/2010, la propia imagen “constituye el primer elemento configurador de la esfera personal de todo individuo, en cuanto instrumento básico de identificación y proyección exterior y factor imprescindible para su propio reconocimiento como sujeto individual”. En consecuencia, el derecho a la propia imagen no se limita a la figura humana, sino que alcanza cualquier manifestación que permita su recognoscibilidad.

Por tanto, la edición de los reportajes que utilizan cámara oculta deben ser especialmente cuidadosos a la hora de proteger la identidad de los intervinientes y no limitarse únicamente a ocultar la cara, sino que hay que hacer uso de otras herramientas como la distorsión de la voz o, en determinados, casos ocultar otros elementos como la silueta del intervinientes o elementos accesorios (matrículas, rótulos de establecimientos, etc.) que aseguran la intimidad del sujeto ya que, en caso contrario, se podría estar cometiendo una vulneración del derecho a la propia imagen.

Big data: consentir o no consentir, ésa es la cuestión

«Big data: consentir o no consentir, ésa es la cuestión», artículo de Elena Gil González, abogada de ECIJA, para The Law Clinic

La explosión de datos que vive nuestra sociedad actual ha propiciado que se acuñe el término big data, cuyo desarrollo merece que nos paremos a reflexionar sobre sus consecuencias y el posible reflejo en las normas. En términos sencillos, el big data es el conjunto de tecnologías que permiten analizar, a gran velocidad y a través del uso de algoritmos, cantidades masivas de datos provenientes de fuentes dispares, con el objetivo de crear valor.

No son pocos los sectores que se han percatado de sus posibles beneficios. Un ejemplo es el uso del big data y el machine learning para estudiar patrones de consumo energético y poder detectar fraudes de usuarios cuyos contadores están manipulados. La otra cara de la moneda de la convivencia con dispositivos móviles y sensores integrados en todo tipo de objetos cotidianos es la posible pérdida de privacidad.

Hasta el momento, el principal mecanismo que permite que las empresas traten nuestros datos es el consentimiento de los usuarios. Por ello, desde hace años, la forma de ejercer el consentimiento ha sido a través de las políticas de privacidad online ofrecidas a los usuarios como términos unilaterales y (cuasi) contrac­tuales, que se han convertido en la piedra angular de la protección de la privacidad online, a pesar de la aplastante evidencia de que la ma­yoría de las personas ni siquiera lee los términos o no los comprende.

Con­sideremos algunos momentos en los que se generan y almacenan datos de forma cotidiana: abrirse un perfil en una red social, comprar a través de internet, descargarse una aplicación móvil o viajar. Todas estas actividades crean datos brutos cuyo tratamiento posterior justi­fica que el individuo otorgue su consentimiento. Este problema se vuelve más acuciante con la llegada del big data, debido a que nuestro día a día está ahora inundado de dispositivos que recaban datos personales.

¿Es el lenguaje sencillo la solución?

Algunos actores abogan por la utilización de un lenguaje sencillo, políticas fáciles de comprender y casillas o ventanillas fáciles de iden­tificar en las que los usuarios pueden indicar su consentimiento. No obstante, un lenguaje sencillo no puede proveer de toda la información necesaria para que los usuarios tomen una decisión suficientemente informada.

Además, la cadena de emisores y receptores de datos es potencial­mente infinita y oscura. Así, el consentimiento se parece cada vez más a un cheque en blanco.

En esta situación, la pregunta que surge es si la obligación del res­ponsable del tratamiento de informar sobre la recogida de los datos se circunscribe a la información que explícitamente recoge (datos primarios), o si debe adoptarse un criterio más amplio y entender que este deber de infor­mación también alcanza a aquella información que la empresa pu­diera obtener tras el tratamiento (datos secundarios).

Esta segunda aproximación tendría muchas dificultades prácticas, en tanto que, por su propia naturaleza, el valor del big data reside precisamente en lo inesperado de los resultados que revela. Así, ¿cómo explica el responsable del tratamiento que resulta imposible saber con antelación qué información revelará el tratamiento de los datos recabados? Son muchos los juristas que consideran que el consenti­miento prestado bajo estas circunstancias no es el consentimiento informado que la norma exige.

Una vuelta de rosca al consentimiento

Tal vez el modelo de consentimiento informado ya no deba ser la piedra angular del tratamiento de datos. En estos términos se han expresado numerosos autores, entre los que destacaré la siguiente cita de Ira Rubinstein:

«Mi argumento es simple aunque radical: el consentimiento informado está roto, sin posibilidad de que una norma lo repa­re, y el único modo de fortalecerlo es cambiando los mercados relevantes de información».

Cualquier sistema en el que la base principal para el tratamiento de datos sea el consentimiento, emplaza la responsabilidad en el individuo. Es por ello que existe una corriente de opinión que sostiene que el requisito del consentimiento debería reser­varse para usos relevantes, de forma que los individuos presten una atención mayor cuando el consentimiento les es requerido, y de este modo sea un mecanismo más efectivo. Así por ejemplo, reservando el consentimiento a situaciones en las que sea necesario que el individuo renuncie a derechos o tratamientos que de otro modo serían espera­bles, la forma del consentimiento tomaría un valor real. Esta misma premisa también es apoyada por el Foro Económico Mundial[1] y por autores como Solon Baroccas y Helen Nissenbaum[2].

Otra corriente actual camina hacia los sistemas de empoderamiento de los individuos y la creación de nuevos modelos de negocio. Se trata de la creación de plataformas de gestión de datos personales en las que los usuarios obtienen un control real sobre su información, y otorgan permisos para el tratamiento de sus datos en función de cada contexto o finalidades (por ejemplo, consentir a determinados tratamientos para el ámbito sanitario, financiero, etc.).

En este escenario, los medios que permitan asegurar la identidad de los usuarios y los sistemas de autenticación son indispensables, así como estrictas medidas de seguridad. Aquí las tecnologías blockchain pueden aportar importantes avances. Consisten básicamente en sistemas que permiten operar a través de infraestructuras seguras basadas en la distribución del trabajo en nodos y en la criptografía y, una de sus principales utilidades es, precisamente la gestión de identidades. Se trata de un modelo todavía incipiente que deberá pasar por un proceso de madurez antes de generalizarse, pero que bien merece ser tenida en cuenta.

Sea cual sea el futuro del consentimiento y nuestras normas de protección de datos, el debate está servido.

[1] FORO ECONÓMICO MUNDIAL y THE BOSTON CONSULTING GROUP. «Rethinking Personal Data: Strengthening Trust» (2012). Proyecto «Rethinking Personal Data».

[2] Solon BAROCCAS y Helen NISSEBAUM. «Privacy, big data and the public good. Chapter 2: Big data’s End Run Around Anonimity And Consent». Cambrigde University Press (2014).