Retos jurídicos de la Inteligencia Artificial
Artículo escrito por Ana Luengo del área de Derecho Penal Económico de ECIJA Madrid.
La normativa europea sobre IA establece una clasificación de sistemas en función de su nivel de riesgo (mínimo, limitado, alto o inaceptable) e impone obligaciones proporcionales en cuanto a documentación, transparencia, supervisión y mitigación de riesgos.
Esta regulación se suma a otras ya existentes como el Reglamento General de Protección de Datos (RGPD) aplicable cuando la IA trata datos personales, así como a normativas sectoriales que afectan áreas como la sanidad, los servicios financieros o la gestión de recursos humanos.
El cumplimiento de estos marcos normativos exige una revisión de los procesos internos de las empresas especialmente en lo relativo a la licitud del tratamiento de datos, a la trazabilidad de los modelos algorítmicos y la responsabilidad en caso de decisiones automatizadas erróneas o discriminatorias.
El uso empresarial de la inteligencia artificial conlleva múltiples desafíos legales que exigen respuestas estratégicas y preventivas por parte del sector jurídico.
Entre los más relevantes destacan:
- Protección de datos y privacidad: la IA requiere volúmenes de datos para entrenar modelos predictivos o generativos. Cuando esos datos incluyen información personal se activa la plena aplicación del RGPD con exigencias sobre transparencia jurídica del tratamiento, minimización de datos y medidas de seguridad. No solo se trata de cumplir con las obligaciones legales sino de diseñar sistemas que integren desde su concepción, los principios de privacidad por diseño y por defecto.
- Propiedad intelectual: el entrenamiento de sistemas de IA con contenidos protegidos por derechos de autor plantea sobre quién ostenta la titularidad de los resultados generados. Dado que la IA no es considerada sujeto de derecho corresponde a los desarrolladores o usuarios establecer contractualmente los límites de uso, cesión o explotación de dichos resultados, así como las garantías frente a posibles infracciones.
- Transparencia: uno de los mayores retos jurídicos y éticos está en la falta de transparencia de los algoritmos. El nuevo reglamento europeo exige que los sistemas de IA de alto riesgo cuenten con documentación técnica que justifique sus decisiones y permitan auditorías externas.
- Responsabilidad civil y penal: el uso de IA no exime de responsabilidad, tanto los desarrolladores como los usuarios de empresa pueden ser responsables por daños causados debido a decisiones erróneas automatizadas. En tanto en cuanto la responsabilidad es uno de los principales retos, se establecen mecanismos de supervisión y de prever protocolos de actuación frente a fallos sesgos o consecuencias no deseadas.
Por otra parte, más allá del cumplimiento normativo, el uso responsable de la IA pasa por integrar principios éticos en su diseño e implantación. Las organizaciones deben adoptar políticas que vayan más allá de lo legalmente exigible especialmente en lo que respecta a:
- No discriminación: los sesgos presentes en los datos de entrenamiento pueden trasladarse al funcionamiento de los sistemas generando discriminación por motivos de género, edad, raza u otros factores. Las auditorías algorítmicas y la revisión continua de los modelos son esenciales para detectar y mitigar estas desviaciones.
- Supervisión humana significativa: el Reglamento europeo impone la necesidad de garantizar que las decisiones críticas no se adopten exclusivamente mediante procesos automatizados sin intervención o revisión humana.
- Confianza y transparencia social: la legitimidad del uso de la IA no se deriva solo de su legalidad sino también de su aceptación por parte de la sociedad.
Ante este panorama, el cumplimiento normativo y ético no debe ser una respuesta reactiva sino una estrategia preventiva y transversal.
Así, algunas medidas claves que las empresas pueden adoptar incluyen, diseño de políticas internas de compliance, evaluaciones de impacto legal y ético, captación continua de los equipos jurídicos y técnicos, auditorías periódicas, así como selección de proveedores tecnológicos responsables que cumplan con los estándares legales exigidos y que ofrezcan transparencia sobre el funcionamiento de sus soluciones.
Uno de los grandes desafíos del presente año 2025, es la necesidad de formación interdisciplinar. Los abogados deben comprender no solo los marcos normativos sino también los fundamentos técnicos.
Es ya conocido por todos que la inteligencia artificial forma parte del presente de nuestras organizaciones, pero su futuro dependerá de cómo sepamos regularla, utilizarla y supervisarla.
El reto jurídico en 2025 no es solo técnico, es ético, educativo y normativo. Como profesionales del derecho tenemos la responsabilidad de garantizar que el avance tecnológico no erosione los derechos fundamentales, sino que los fortalezca a través de un marco legal, sólido justo y adaptado a los nuevos tiempos.