CALT est en phase pilote. Les données sont préliminaires et sujettes à modification.
Décidé Décision d'un tribunal administratif Responsabilité de l'IA Colombie-Britannique
Jake Moffatt a consulté le chatbot du site Web d'Air Canada, qui a indiqué à tort qu'il pouvait demander rétroactivement des tarifs de deuil dans les 90 jours. La politique d'Air Canada interdisait en réalité les demandes rétroactives. Le tribunal a rejeté l'argument d'Air Canada selon lequel le chatbot était une « entité juridique distincte » et a conclu à une déclaration inexacte faite par négligence.
Tribunal British Columbia Civil Resolution Tribunal
Référence 2024 BCCRT 149
Juridiction Colombie-Britannique
Décidé
Parties Demandeur / Requérant: Jake Moffatt
Défendeur / Intimé: Air Canada
Juge Tribunal Member Christopher C. Rivers

Contexte IA

Système d'IA: Air Canada website chatbot

Air Canada a déployé un chatbot sur son site Web pour traiter les demandes des clients. Le chatbot a généré une déclaration inexacte sur la politique de tarifs de deuil sur laquelle le client s'est raisonnablement fié.

Importance

Première décision canadienne tenant une société responsable des déclarations inexactes de son chatbot IA. Établit que les entreprises ne peuvent se dégager de leur responsabilité en traitant un chatbot comme une entité distincte.

Résultat

Autre

Le tribunal a accordé 812,02 $ CA à Moffatt pour déclaration inexacte faite par négligence. Air Canada a été tenue responsable des conseils inexacts de son chatbot concernant les tarifs de deuil.

Sources

Voir sur CanLII →