A recente controvérsia envolvendo a Air Canada e um de seus passageiros, Jake Moffatt, lança luz sobre as complexidades e desafios enfrentados pelas companhias aéreas na era digital, especialmente quando se trata de chatbots e a precisão das informações fornecidas online. Este caso, que culminou na decisão de um tribunal de pequenas causas, não apenas destaca as expectativas dos consumidores em relação à assistência virtual, mas também serve como um alerta para as empresas sobre a responsabilidade legal que podem enfrentar devido a informações erradas disseminadas por seus assistentes virtuais.
Jake Moffatt buscou reembolso por voos reservados sob a impressão de que poderia solicitar um desconto por luto, conforme aconselhado por um chatbot da Air Canada. Após a morte de sua avó, Moffatt foi informado pelo chatbot que, se comprasse uma passagem a preço normal, teria até 90 dias para solicitar o desconto por luto. Confiando nessa informação, Moffatt adquiriu bilhetes de Vancouver para Toronto e vice-versa, totalizando quase CA$ 1.640,36 (cerca de R$ 6.020,35). Contudo, quando tentou reivindicar o desconto apresentando a certidão de óbito de sua avó, a Air Canada recusou, alegando que as tarifas de luto não poderiam ser reivindicadas após a compra dos voos.
Responsabilidade sobre o chatbot
O argumento da Air Canada de que não poderia ser responsabilizada pelas ações de seu chatbot foi rejeitado pelo tribunal. O juiz Christopher Rivers destacou que, independentemente de a informação vir de um chatbot ou de uma página estática, a companhia aérea é responsável por todas as informações em seu site. Esta decisão sublinha a expectativa de que as empresas devem garantir a precisão e a confiabilidade das informações fornecidas por seus assistentes virtuais, uma vez que os consumidores dependem dessas informações para tomar decisões importantes.
O caso de Moffatt contra a Air Canada vai além de uma disputa sobre tarifas de luto e reembolsos. Ele ressalta o papel crescente que a inteligência artificial (IA) e os chatbots desempenham no atendimento ao cliente. Inicialmente, a Air Canada lançou seu chatbot como um experimento de IA para aliviar a carga sobre seus call centers durante períodos de alta demanda, como atrasos ou cancelamentos de voos devido a condições meteorológicas adversas. Com o tempo, esperava-se que o chatbot adquirisse a capacidade de resolver problemas de atendimento ao cliente mais complexos, automizando serviços que não requerem interação humana direta.
Lições aprendidas e o caminho a seguir
Este incidente serve como um lembrete crítico para as empresas sobre a importância de monitorar e atualizar constantemente os sistemas de IA para garantir que as informações fornecidas sejam precisas e confiáveis. Além disso, sugere que as empresas devem fornecer avisos claros aos consumidores sobre a possibilidade de imprecisões nas informações fornecidas por chatbots, especialmente quando essas informações podem ter implicações financeiras significativas para os usuários.
A decisão do tribunal, que obrigou a Air Canada a compensar Moffatt, não apenas põe em evidência as expectativas legais em torno da responsabilidade da informação online, mas também pode incentivar outras empresas a reavaliar suas práticas de atendimento ao cliente digital. Para a Air Canada e outras companhias aéreas, o episódio ressalta a necessidade de equilibrar a inovação tecnológica com a responsabilidade de fornecer informações claras, precisas e úteis aos consumidores.