Moffatt v. Air Canada
Jake Moffatt a consulté le chatbot du site Web d'Air Canada, qui a indiqué à tort qu'il pouvait demander rétroactivement des tarifs de deuil dans les 90 jours. La politique d'Air Canada interdisait en réalité les demandes rétroactives. Le tribunal a rejeté l'argument d'Air Canada selon lequel le chatbot était une « entité juridique distincte » et a conclu à une déclaration inexacte faite par négligence.
| Tribunal | British Columbia Civil Resolution Tribunal |
|---|---|
| Référence | 2024 BCCRT 149 |
| Juridiction | Colombie-Britannique |
| Décidé | |
| Parties | Demandeur / Requérant: Jake Moffatt Défendeur / Intimé: Air Canada |
| Juge | Tribunal Member Christopher C. Rivers |
Contexte IA
Système d'IA: Air Canada website chatbot
Air Canada a déployé un chatbot sur son site Web pour traiter les demandes des clients. Le chatbot a généré une déclaration inexacte sur la politique de tarifs de deuil sur laquelle le client s'est raisonnablement fié.
Importance
Première décision canadienne tenant une société responsable des déclarations inexactes de son chatbot IA. Établit que les entreprises ne peuvent se dégager de leur responsabilité en traitant un chatbot comme une entité distincte.
Résultat
AutreLe tribunal a accordé 812,02 $ CA à Moffatt pour déclaration inexacte faite par négligence. Air Canada a été tenue responsable des conseils inexacts de son chatbot concernant les tarifs de deuil.