Jake Moffatt, residente na Colúmbia Britânica, Canada, reservou um voo de última hora com a Air Canada para o funeral da sua avó, contando com a ajuda de um chatbot no site da companhia aérea. O chatbot garantiu erroneamente que ele receberia um desconto de luto mesmo após comprar o bilhete. Quando Moffatt tentou reivindicar o desconto mais tarde, descobriu que a Air Canada apenas honrava tais pedidos quando esses fossem feitos antes do voo.
A Air Canada argumentou que as informações do chatbot não eram vinculativas, considerando-o uma entidade legal separada. No entanto, o tribunal canadiano, na quarta feira passada (14 de Fevereiro 2024) decidiu a favor de Jake Moffatt, afirmando que a Air Canada deveria ter garantido a precisão do chatbot. O tribunal ordenou que a Air Canada pagasse a Moffatt mais de $600 em danos e taxas por não exercer o cuidado razoável.
Este caso destaca os desafios associados aos chatbots alimentados por IA e à responsabilidade das empresas. O tribunal enfatizou que a Air Canada é responsável por todas as informações no seu site, quer provenham de páginas estáticas ou de chatbots. A Air Canada afirmou que cumprirá a decisão do tribunal.