Sala de Prensa

7 marzo, 2024

¿Puede el uso de la IA obligar corporativamente a quien la utiliza en la prestación de servicios?

 

Por Alejandro Linares y Omar Saab

 

La velocidad con la que evolucionan las relaciones comerciales y las herramientas tecnológicas que se utilizan para eficientar dichas relaciones, sigue siendo vertiginosa. Toda clase de prestadores de servicios están aprovechando la tecnología para optimizar los servicios que ofrecen, haciéndolos más ágiles, acelerados y eficientes.

 

Por ejemplo, cada día más empresas utilizan los chatbots para interactuar con los clientes, mejorando los tiempos de respuesta, abatiendo costos y acelerando con ellos los procesos de venta.

 

No olvidemos que el origen del anglicismo “chatbot” se simplifica en la definición de conversar (chat) con un robot (bot), por lo que a diferencia de lo que ocurre en la comunicación tradicional, cuando utilizamos un chatbot uno de los interlocutores es un software.[1]

 

¿Pero estas herramientas tecnológicas pueden responsabilizar corporativamente a las empresas que las utilizan? ¿Qué tanta responsabilidad tienen los creadores de este tipo de tecnología? ¿Pudiera decirse que la inteligencia artificial tiene personalidad propia y, por tanto, ser responsables de sus acciones?

 

La respuesta sin duda puede dar lugar a un sinnúmero de oportunidades. Por lo pronto, un Tribunal Canadiense ha sentado ya un precedente por cuanto a la forma de abordar el tema de la inteligencia artificial ante posibles conflictos surgidos con motivo del uso de esta.

El caso surge en Canadá, cuando un pasajero de una aerolínea adquirió un boleto de avión con base en la información proporcionada por un chatbot en la página web de la compañía, el cual le ofreció un precio por la venta del boleto, dando opción al pasajero de obtener un reembolso parcial 90 días después de la compra.

 

Derivado de lo anterior, el pasajero reclamó a la aerolínea el reembolso acordado con el asistente virtual, a lo que la empresa negó esa opción argumentando que el chatbot es “una entidad legal separada que es responsable de sus propias acciones”.[2]

 

Ante la negativa de la empresa de aviación el pasajero demandó judicialmente, obteniendo sentencia en la que el Tribunal determinó la responsabilidad de la aerolínea estableciendo que «el estándar de cuidado aplicable requiere que una empresa tenga un cuidado razonable para garantizar que sus representantes no sean engañosos«[3], añadiendo «el chatbot sigue siendo una parte del sitio web de Air Canada. Debería ser obvio para Air Canada que es responsable de toda la información en su sitio web«[4], dejando de tomar en cuenta los argumentos de la defensa en el sentido de que aún y cuando el chatbot hubiera realizado la oferta al pasajero, las políticas de la compañía no incluían la devolución de dinero por duelo.

 

Al respecto, compartimos el criterio del Tribunal en el sentido de hacer responsable a la empresa prestadora del servicio, toda vez que, en protección al consumidor, la información proporcionada respecto del servicio brindado −más allá del medio o forma en la que esta se lleve a cabo− debe ser veraz, clara y exenta de textos o diálogos inexactos, erróneos o engañosos.

 

Coincidimos, asimismo, en que debe desestimarse, al menos por el momento y hasta en tanto la ley no le reconozca personalidad jurídica, la idea de que el chatbot sea considerado como una entidad legal autónoma e independiente de la empresa que lo utiliza como parte de su servicio al cliente, pues al final del día, la tecnología chatbot es una herramienta comercial.

 

En ese sentido, el fallo del Tribunal en contra de la empresa de aviación por la información engañosa de su chatbot representa un momento significativo en el debate en curso sobre la responsabilidad corporativa y la comunicación digital.

 

Lo cierto es que ante el desconocimiento de los alcances y consecuencias que pudiera implicar la utilización de la IA y su interacción con terceras personas; aunado a la falta de regulación normativa en nuestro país sobre este tema, estimamos que el prestador de servicios que llegue a utilizar este tipo de tecnologías como parte de sus procesos internos o de atención al cliente, debe asumir las consecuencias inherentes a su uso; y por tanto, ser responsable de los daños y/o perjuicios que pudiera ocasionar a terceros con base en la normatividad legal vigente en nuestro sistema jurídico.

 

 

[1]                Guía Legal Chatbots: Aspectos jurídicos y de mercado. ECIJA. https://ecija.com/wp-content/uploads/2018/10/ECIJA_Chatbot-Chocolate_Paper_Aspectos-jur%C3%ADdicos-y-de-mercado_Chatbots-compressed.pdf

[2]                https://computerhoy.com/tecnologia/air-canada-indemnizara-cliente-inteligencia-artificial-invento-politica-devolucion-1365672

[3]                https://computerhoy.com/tecnologia/air-canada-indemnizara-cliente-inteligencia-artificial-invento-politica-devolucion-1365672

 

[4] https://computerhoy.com/tecnologia/air-canada-indemnizara-cliente-inteligencia-artificial-invento-politica-devolucion-1365672

 

SOCIOS RELACIONADOS

Alejandro Linares