La responsabilidad de las redes sociales a juicio ante el Supremo de USA
Carlos Rivadulla, Manager de IP/IT de ECIJA.
El pasado mes de marzo se celebraron en el Tribunal Supremo de Estados Unidos las vistas de dos de los juicios que mayor impacto hubieron podido tener en las empresas y en la operativa de las redes sociales y plataformas (casos Twitter y Google). En ambos procedimientos se cuestionaba el deber de control y diligencia de las plataformas y redes sociales -y su posible responsabilidad- por los contenidos ilegales y potencialmente dañinos que en ocasiones los usuarios comparten y difunden a través de las redes sociales.
Finalmente, esta semana se ha hecho público la sentencia: absolutoria. La industria respira aliviada. Han salvado el punto.
Se cuestionaba cómo gestionan, recomiendan, moderan y priorizan las plataformas el contenido que nos muestran, y qué conocimiento tienen o deberían tener sobre esa operación algorítmica. Un potencial fallo en su contra les hubiera obligado a cambiar la operativa actual, aumentando los costes asociados, e imponiendo un cambio radical en la forma en la que han operado las plataformas de contenidos compartidos en los últimos 25 años.
Pero vayamos a los albores de Internet. En 1996, la conocida como Ley de Decencia en las Comunicaciones (Communications Decency Act, «CDA») estableció, en su famosa Sección 230, la exención de responsabilidad para los proveedores y usuarios de un «servicio informático interactivo» que publiquen información proporcionada por terceros usuarios: «Ningún proveedor o usuario de un servicio informático interactivo será tratado como el editor o emisor de cualquier información proporcionada por otro proveedor de contenido de información». La CDA intentaba dar respuesta a varios pleitos contra proveedores de servicios de Internet (ISP) a principios de la década de 1990 que dieron lugar a interpretaciones judiciales dispares sobre si los ISP debían ser considerados editores o, en su caso, distribuidores del contenido creado por sus usuarios. Con la Sección 230 de la CDA la duda fue despejada, los ISP no era ni un editor ni un distribuidor, eran un intermediario tecnológico que ni tenía conocimiento, ni debía tenerlo, de los contenidos que los usuarios compartían en sus plataformas. Y, por lo tanto, ni tenía obligación de controlar ni censurar contenidos, ni era, tampoco, responsable por los posibles daños causados. Nótese, lógicamente, el vocabulario típico de los años 90, y la voluntad del legislador americano de crear un marco de seguridad jurídica a las empresas de Internet para apoyar su desarrollo y crecimiento. Como así, justamente, ha sucedido. La CDA fue clave para el desarrollo de Internet.
Asimismo, la Sección 230(c)(2) establecía la conocida exención de responsabilidad del «buen samaritano» de los operadores de servicios informáticos interactivos en reclamaciones de responsabilidad por la eliminación o moderación de buena fe de material de terceros que consideren «obsceno, lascivo, sucio, excesivamente violento, acosador u objetable de otro modo, ya sea que dicho material esté protegido constitucionalmente o no».
Es una norma que, sin duda alguna, ha funcionado. La cuestión es, ¿seguía vigente o necesitaba una revisión? ¿Ha cambiado el tipo de servicios, de tecnología, y de cómo se presentan y recomiendan los contenidos de este tipo de servicios que ahora denominamos redes sociales? Como expresaba un experto ante el Tribunal, la CDA es anterior a la era de los algoritmos, de la personalización, y de cómo se identifican, sugieren y recomiendan actualmente los contenidos en las redes sociales.
Posteriormente, en 1998, y con respecto a los supuestos de infracción en materia de derechos de autor, en Estados Unidos se promulgó la Digital Millenium Copyright Act, estableciendo igualmente una suerte de “puerto seguro” de responsabilidad para los ISP a través de cuyos servicios los usuarios infringían derechos de autor por alojar y compartir obras de terceros sin autorización. En Europa y España, se ha desarrollado justamente legislación muy similar y por los mismos motivos. Desde la Directiva de Comercio Electrónico, la LSSI o hasta la más reciente Digital Services Act.
En los últimos años, la protección conferida por la Sección 230 ha sido objeto de un mayor debate y escrutinio por parte de los tribunales en Estados Unidos con relación a materias como los discursos de odio y los sesgos ideológicos, y cuál debía ser el rol de las plataformas en su control y eliminación. Debate, a veces contradictorio, que ha servido ahora al Tribunal Supremo para reafirmar la línea que debe servir de guía al resto de tribunales del país. Y, de alguna forma, en todo el mundo.
Por lo tanto, en la era de los algoritmos, y tras casi 20 años de redes sociales, la cuestión a debate en el Tribunal Supremo era si las recomendaciones, sugerencias y priorizaciones que realizan las redes sociales a los usuarios de contenidos de otros usuarios puede asimilarse a una función editorial.
Es decir, ¿puede o deberían conocer las plataformas qué están recomendando a través de sus algoritmos? O, por el contrario, ¿se trata de una función meramente tecnológica, neutra, en cuanto al conocimiento y control de tales contenidos?
Finalmente, y como señalaba, quizá premonitoriamente, la Magistrada Sonia Sotomayor, está es una cuestión y competencia del legislador, y no del Tribunal Supremo. Por lo que, a corto plazo, las dos sentencias constituyen una victoria para las redes sociales y alivian considerablemente los temores a un aumento de demandas