La creación de contenido con ChatGPT, traducciones realizadas con Deep L, vídeos generados con Synthesia o aplicaciones como Timely que sirven para conocer la productividad de cada trabajador, son instrumentos tecnológicos desarrollados y basados en la inteligencia artificial (IA). Lo que hace unos meses parecía un objetivo distante e inalcanzable se ha convertido en una realidad que muchas compañías ya utilizan en su día a día.
La cuestión es si la sociedad y las diferentes legislaciones del mundo están preparadas para lidiar con este nuevo escenario que se abre ante nosotros y que ha venido para quedarse. Aunque la normativa siempre va por detrás de los avances tecnológicos, la verdad es que, en esta ocasión, la Unión Europea se ha puesto a trabajar rápidamente y ya cuenta con un primer borrador sobre la IA, que busca marcar los límites y otorgar una seguridad jurídica a todas las empresas desarrolladoras.
Según explican los expertos, como siempre, ahora toca encontrar el equilibrio entre legislar pronto -sin margen suficiente para ver los problemas- o tarde, con efectos negativos. Paul Handal, socio de legaltech de Ecija, apunta en este sentido que nunca es recomendable que «la normativa, por anticiparse, establezca obligaciones o limitaciones que no ofrezcan seguridad jurídica, que no tengan un impacto positivo en la sociedad y que, lejos de incentivar un uso seguro de la tecnología, lo dificulte artificiosamente».
Desde Pérez-Llorca entienden que con el Reglamento de Inteligencia Artificial, «la Unión Europea pretende, una vez más, adelantarse desde un punto de vista regulatorio al resto del mundo ante una tecnología disruptiva. El proyecto es ambicioso, porque, por una parte, pretende regular el uso de la IA haciendo una clasificación de los riesgos, mientras que, en cuanto a la responsabilidad, la UE pretende homogeneizar un régimen claro y transparente cuando se genere un daño», señalan los letrados Diego de la Vega y Silvia Bardají.