La empresa aérea Air Canada se encuentra en el centro de una polémica luego de que un tribunal fallara a favor del pasajero Jake Moffatt, quien recibió información errónea de parte del chatbot de atención al cliente de la aerolínea.
El incidente tuvo lugar cuando Moffatt, tras recibir la trágica noticia del fallecimiento de su abuela, buscó reservar un vuelo de emergencia de Vancouver a Toronto. Sin embargo, al tener dudas sobre las tarifas, contactó al sistema automatizado de atención al cliente de Air Canada.
El chatbot, en lugar de proporcionar la información precisa, recomendó a Moffatt comprar el boleto y luego solicitar un reembolso dentro de los 90 días, invocando una supuesta política de compensación por duelo para viajes de último momento. Esta política, sin embargo, resultó ser inexistente.
Ante la negativa de reembolso por parte de la aerolínea y tras impugnar la decisión, Air Canada ofreció a Moffatt un cupón de 200 dólares para futuros viajes y prometió actualizar su chatbot. No obstante, Moffatt llevó el caso a los tribunales.
Air Canada argumentó que el pasajero no debió confiar en el chatbot, considerándolo una entidad legal separada responsable de sus propias acciones. Sin embargo, el tribunal falló a favor de Moffatt, sosteniendo que el cliente no tenía motivos para dudar de la información proporcionada por el chatbot alojado en el sitio web de la aerolínea.
Como resultado del fallo judicial, Air Canada deberá reembolsar parcialmente a Moffatt la suma de 650.88 dólares canadienses, además de cubrir los honorarios de su abogado.
Este caso destaca la creciente importancia de la responsabilidad y la transparencia en el desarrollo y uso de sistemas de inteligencia artificial en servicios al cliente, así como la necesidad de claridad en las políticas de compensación de las aerolíneas.