Six grandes étapes qui vous aideront à gérer les risques juridiques liés à l'adoption de l'IA


Photo/image : Dentons

Tout système d’intelligence artificielle (IA) soulève des enjeux juridiques. Lorsqu’il traite des données personnelles, ce qui est fréquent, il est assujetti aux lois sur la protection des renseignements personnels et de la vie privée. S’il exploite des œuvres protégées, il peut enfreindre les droits d’auteur ou de propriété intellectuelle. S’il remplace des fonctions humaines, le droit du travail peut s’appliquer. Et s’il prend des décisions de façon autonome, des questions de responsabilité peuvent survenir. La liste est longue.

Qu’il existe ou non des lois propres à l’IA, l’état de droit demeure applicable. En l’absence de cadre législatif spécifique, une gestion rigoureuse des risques juridiques passe par la mise en place d’un programme de gouvernance de l’IA à l’échelle de l’entreprise. Les normes émergentes élaborées par l’Organisation internationale de normalisation (ISO) et le National Institute of Standards and Technology (NIST) servent de repères pour encadrer le développement et l’adoption responsables de l’IA. On propose une approche en six grandes étapes pour gérer les risques juridiques liés à l’IA.


Lire l'article complet sur Dentons »