Quand l’IA agit comme un avocat, qui est responsable ?


Photo/image : Gascon

La Nippon Life Insurance Company of America a intenté une poursuite contre OpenAI devant un tribunal fédéral de Chicago. Selon la demande introductive d’instance, ChatGPT aurait aidé un ancien demandeur en invalidité à contester un règlement, à tenter de rouvrir une affaire déjà rejetée et à poursuivre le dépôt de procédures contre l’assureur.

Cette affaire soulève une question à la fois simple et fondamentale : lorsqu’un système d’IA est utilisé non seulement comme outil de recherche, mais comme source de conseils juridiques adaptés à une situation précise et de rédaction d’actes de procédure, l’entreprise qui l’exploite peut-elle être tenue responsable ?


Lire l'article complet sur Gascon »