«La IA generativa es un amplificador de la inteligencia artificial tradicional» y «permite identificar oportunidades y casos de uso de negocio que ni siquiera nos habíamos planteado. Vemos que es un impulso a la innovación», asegura Natalia Mayoral Figueroa, chief data officer de Naturgy. Pero tiene barreras. «A nivel técnico cuando tienes que integrarlo con una infraestructura o un mapa de sistemas existentes en una empresa se complica todo, especialmente si hay un mapa de sistemas diverso o disperso», añade. También se consideran barreras las alucinaciones o respuestas incorrectas por la falta de madurez de los modelos de IA, la necesidad de un dato fiable y de calidad, la seguridad o la protección de la información, además de la escalabilidad.
Esta dificultad la ratifica Jacinto Estrecha Cádiz, responsable de IA de NTT Data España al apuntar que «el 80% de las pruebas de concepto no pasan a un entorno productivo, no porque no se resuelven las necesidades planteadas o la tecnología no sea suficiente para responder a ese caso. Los problemas los encontramos desde el punto de vista del despliegue en el entorno complejo de una gran organización». Por este motivo a su juicio «el reto es conseguir de forma más estructurada hacer la industrialización de esos casos de uso».
La gestión del cambio para maximizar el impacto de la IA también es una asignatura pendiente. «Para obtener un beneficio mayor tienes que transformar el proceso de negocio, no solo tener un impacto puntual, y eso supone un proceso de cambio dentro de las compañías de la forma en la que pensamos y trabajamos», destaca Javier Lázaro Gaspar, digital hub director de Ferrovial.
La capacidad de esta tecnología para procesar información no estructurada -de correos, audios o videos- está entre las grandes ventajas, siempre y cuando esa data sea de calidad. «La calidad del dato es el principal reto, pero probablemente no está lo suficientemente bien cuidado para fiarnos de él. De ahí que las principales acciones en las que estamos trabajando sean la eficiencia operativa de los procesos internos», aseguran en NTT Data. Y la verificación humana, coinciden, es clave.
Gobernanza
En agosto, la Unión Europea aprobaba la ley de la IA definiendo un marco jurídico que tiene conexiones con otras normativas como el Reglamento de Protección de Datos o leyes de protección intelectual e industrial. Una norma que ha obligado a revisar muchos modelos de IA para, por ejemplo, certificar el origen legítimo de la data que sirve para entrenarlos.
«Muchos motores de IA de acceso público, literalmente se han indexado Internet y han aprendido de todo, pero si haces eso y sacas un beneficio económico de algo que no era de tu propiedad tienes un problema», ha explicado Alonso Hurtado, socio de tecnologías de Ecija Abogados. En consecuencia, «el impacto de la nueva normativa europea que regula la IA es obvio: no puedes implantar un proyecto de IA sin que venga el cumplimiento por diseño de este reglamento y los aledaños», ha afirmado. Supone que el equipo legal entra desde un primer momento en el proyecto o que la IA ya entrenada se considere secreto industrial por su valor diferencial.
Por su parte, Jacinto Estrecha de NTT Data señalaba que «lo importante de la norma es que pone en el centro a las personas«, añadiendo la dificultad de «alinear las diferentes regulaciones si se trabaja fuera de Europa, y la necesidad de crear un entorno seguro de trabajo con una data seguridad, en propiedad, certificada y validada».
No obstante, antes de la ley, muchas compañías pusieron en marcha gobiernos de la IA, un conjunto de normas, reglamentos, marcos éticos y técnicos para guiar el despliegue y uso de esta tecnología.
«Cuando hablamos de IA ética nos referimos a hacer un uso de la IA que respete valores humanos, privacidad y derechos fundamentales», explica Mayoral, de Naturgy. Esta compañía ha impulsado FactorIA para desarrollar el marco de trabajo que incluye el «gobierno de la IA en cuanto a su alcance tecnológico, metodológico, de seguridad o de control de costes y sobre todo regulación que iba a venir», explica.
Estas iniciativas, coinciden los participantes, implican acciones de concienciación interna, definir los órganos de gobierno o impulsar la transversalidad de esta tecnología. «O la gestión del cambio para que los empleados saquen el máximo partido de la IA con principios acordes a la regulación y a los principios básicos que la empresa define en su actividad», apuntan desde Ferrovial.
El gobierno de la IA requiere que «se diseñen y establezcan líneas de defensa, igual que se hace en Compliance», añaden desde Ecija Abogados, que afectan a la programación, y revisión y prueba de compliance. El objetivo es detectar riesgos éticos como sesgos o alucinaciones.
Otra preocupación es el impacto medioambiental de la IA por el consumo de recursos en el procesamiento de datos. Tanto Ferrovial como Naturgy plantean la búsqueda de partners tecnológicos para reducirlo, a la vez que destacan el hecho de que la IA disminuya otros impactos medioambientales de la actividad empresarial.
En este punto, Natalia Mayoral aboga por tener en cuenta el saldo de ahorro que aporta la IA en relación con el consumo. «Somos capaces de medir el consumo que la IA genera en su uso, pero no la eficiencia que generan los casos de uso al disminuir desplazamientos o al ser más eficaces en las operaciones de mantenimiento, o ser más eficaces en la operativa. Y la eficacia implica un ahorro energético», concluye.