Sala de Prensa

30 agosto, 2023
España

El riesgo de sesgo en la inteligencia artificial: «Si el afectado considera que ha habido alguna discriminación puede acudir siempre a la tutela judicial y a las autoridades de control»

Daniel López, socio de ECIJA, colabora en un reportaje de La Sexta sobre el riesgo de sesgo de la IA en el consumo y los servicios. 

El uso creciente de la automatización y la inteligencia artificial (IA) en diversos procesos ha demostrado eficiencia al recopilar datos y agilizar tareas. Sin embargo, este avance tecnológico ha llevado a situaciones en las que la IA, influenciada por sesgos humanos, puede discriminar por motivos de etnia, ideología, género y clase social. En este contexto, Daniel López, socio de ECIJA, destaca la relevancia legal de abordar estos desafíos.

A medida que las empresas implementan la IA para cuestiones como retribuciones y salarios, muchos algoritmos no son evaluados adecuadamente. El 76% de las empresas no revisan los algoritmos que utilizan, lo que plantea problemas de sesgo. Los sesgos en la programación, el proceso de cómputo y la información recopilada pueden perjudicar especialmente a las mujeres. Dado que las mujeres son mayoría en trabajos parciales y en situaciones de embarazo, los algoritmos sesgados pueden perjudicarlas en el ámbito laboral.

En el ámbito de consumo y servicios, la IA puede manifestar sesgos de género y clase social. Por ejemplo, al evaluar solicitudes de crédito, las mujeres pueden enfrentar condiciones menos favorables debido a supuestos económicos erróneos. Además, al observar los dispositivos desde los que se realiza una compra, la IA podría inferir erróneamente la capacidad adquisitiva, lo que resultaría en discriminación.

Daniel López destaca que las decisiones de la IA tienen un alcance amplio y afectarán diversos aspectos de la vida ciudadana. En este sentido, las personas tienen el derecho de impugnar decisiones automatizadas.  A través del derecho de acceso, las personas pueden solicitar información sobre las decisiones tomadas por la IA y, si se percibe discriminación, recurrir a la tutela judicial y a las autoridades de control.

Se menciona que el Parlamento Europeo está trabajando en legislación específica para abordar la IA, al igual que en Nueva York, donde las empresas deben demostrar que sus algoritmos no discriminan. Los sindicatos abogan por la transparencia en el uso de la IA, informando sobre su uso, parámetros y supervisión por parte de personas. Dada la constante evolución de la IA, también se enfatiza la necesidad de una comisión de seguimiento para asegurar la responsabilidad y transparencia en su aplicación.

Lee el reportaje publicado en La Sexta aquí

SOCIOS RELACIONADOS

Daniel López