Tests phase finale en cours…Tic Tac

Les petites injustices compromettent toute la justice
Aujourd’hui: Date en Français

Tests phase finale en cours…Tic Tac

L’IA à la barre : Révolution ou menace pour la justice ?

Par
Image d'illustration générée par une intelligence artificielle. © Droit d'auteur LeJuridhic.com, 2025

Une première au Québec a mis en lumière un phénomène mondial : l’utilisation de l’intelligence artificielle (IA) dans les procédures judiciaires. Entre promesses d’accès à la justice et risques de dérapages, les tribunaux du monde entier sont confrontés à un défi de taille. Enquête sur une révolution technologique qui bouscule les fondements du droit.

Le 1er octobre 2025, la Cour supérieure du Québec a écrit une nouvelle page de l’histoire judiciaire de la province. Jean Laprade, 74 ans, ancien consul du Canada en République de Guinée, a été condamné à une amende de 5 000 $ pour avoir utilisé l’intelligence artificielle dans sa défense. Se représentant seul dans une affaire complexe de partenariat d’affaires qui a mal tourné, M. Laprade a soumis une contestation truffée de références à des décisions de justice… qui n’existaient pas. Huit citations fantômes, générées par une IA, qui ont fait perdre un temps précieux à la partie adverse et au tribunal.

Le juge Luc Morin, tout en sanctionnant ce qu’il a qualifié de « manquement grave », a offert une perspective nuancée, soulignant que « toute mesure technologique pouvant permettre de favoriser l’accès au système de justice au citoyen devrait être saluée et encadrée, plutôt que d’être proscrite et stigmatisée » [1]. Cette décision, une première au Québec, est loin d’être un cas isolé. Elle est le symptôme d’une tendance mondiale qui voit l’IA s’inviter dans les prétoires, pour le meilleur et pour le pire.

Un phénomène international en pleine accélération

Le cas de Jean Laprade n’est que la pointe de l’iceberg. Selon Me Nicolas Vermeys, directeur du Centre de recherche en droit public de l’Université de Montréal, on dénombre plus de 400 cas d’usage fautif d’IA générative dans le monde, et il estime que le nombre réel de cas non détectés pourrait être bien plus élevé [2]. Une base de données tenue par le chercheur Damien Charlotin recense déjà 282 cas aux États-Unis et plus de 130 dans d’autres pays, avec une nette accélération depuis le printemps 2025 [3].

Les sanctions se multiplient et se durcissent. En juin 2023, deux avocats new-yorkais ont été condamnés à une amende de 5 000 $ pour avoir cité six affaires fictives créées par ChatGPT [4]. Plus récemment, en mai 2025, un avocat de l’Utah a été sanctionné pour avoir utilisé une référence inexistante, le cas « Royer v Nelson », tout droit sortie de l’imagination de l’IA [5]. En Californie, un avocat a même écopé d’une amende record de 10 000 $ pour avoir soumis un document où 21 des 23 citations étaient des « hallucinations » de l’IA [3].

CasJuridictionSanctionAnnée
Jean LapradeQuébec, Canada5 000 $2025
Schwartz & LoDucaNew York, USA5 000 $2023
Richard BednarUtah, USAHonoraires + Don 1 000 $2025
Avocat anonymeCalifornie, USA10 000 $2025

L’IA et ses « hallucinations » : un défi technique

Le problème au cœur de ces affaires est un phénomène bien connu des experts en IA : les « hallucinations ». Contrairement à une base de données traditionnelle, une IA générative ne « sait » pas ce qui est vrai ou faux. Elle est conçue pour prédire la séquence de mots la plus probable en réponse à une question. Lorsqu’elle ne trouve pas de réponse factuelle dans ses données d’entraînement, elle peut « combler les vides » en inventant des informations qui semblent plausibles, mais qui sont entièrement fausses.

Damien Charlotin identifie trois types d’hallucinations juridiques [3] :

1. La jurisprudence fabriquée : des décisions de justice entièrement inventées.

2. Les fausses citations : des extraits de décisions existantes, mais déformés ou sortis de leur contexte.

3. La jurisprudence mal représentée : des cas réels, mais dont le sens et la portée sont incorrectement interprétés.

Ces erreurs, souvent difficiles à déceler pour un non-initié, peuvent avoir des conséquences désastreuses, sapant la crédibilité d’un argumentaire et, plus grave encore, l’intégrité du processus judiciaire.

Les justiciables seuls face à la machine

Si les avocats ne sont pas à l’abri des pièges de l’IA, le véritable enjeu se situe peut-être du côté des justiciables qui se représentent seuls, souvent par manque de moyens financiers. Pour eux, l’IA apparaît comme une bouée de sauvetage, un moyen d’accéder à une information juridique complexe et de rédiger des documents judiciaires. Mais cette bouée peut rapidement se transformer en ancre.

L’histoire d’Earl Takefman, un citoyen américain impliqué dans un litige commercial, est révélatrice. Après avoir cité un cas inexistant fourni par ChatGPT, il a été sévèrement réprimandé par le juge. « Il ne m’est jamais venu à l’esprit que ChatGPT inventerait totalement des cas, et malheureusement, je l’ai découvert à la dure », a-t-il confié à NBC News [3]. Il a même raconté avoir dit à l’IA qu’elle l’avait « vraiment foutu dans la merde », ce à quoi le chatbot a répondu par des excuses.

« Je peux comprendre plus facilement comment quelqu’un sans avocat, et qui sent peut-être qu’il n’a pas l’argent pour accéder à un avocat, serait tenté de s’appuyer sur l’un de ces outils », explique Robert Freund, un avocat de Los Angeles [3].

Le cas de Jean Laprade illustre parfaitement ce dilemme. « Contrit, Monsieur Laprade s’excusera du fait que ses documents ne sont probablement pas parfaits, mais que sans l’aide de l’intelligence artificielle, il n’aurait pas été en mesure de se défendre adéquatement », note le juge Morin dans sa décision [1]. Cette situation soulève une question fondamentale : comment le système judiciaire peut-il encadrer l’usage de l’IA pour en faire un véritable outil d’accès à la justice, plutôt qu’un piège pour les plus vulnérables ?

Comment éviter les dérapages ?

Face à cette nouvelle réalité, la communauté juridique s’organise. Des bonnes pratiques émergent pour éviter les hallucinations de l’IA. La plus importante est simple : ne jamais faire une confiance aveugle à la machine. Chaque information, chaque citation, chaque argument généré par une IA doit être systématiquement vérifié dans des sources juridiques fiables, comme les sites web des tribunaux ou des bases de données reconnues comme CanLII.

Les experts recommandent également de privilégier des outils d’IA spécifiquement conçus pour le droit, qui utilisent des technologies comme le « Retrieval-Augmented Generation » (RAG). Ces systèmes sont conçus pour puiser leurs réponses dans un corpus de documents juridiques défini et pour citer leurs sources, réduisant ainsi le risque d’hallucinations. Mais même avec ces outils, la vigilance reste de mise. L’approche de « l’humain dans la boucle » demeure essentielle : l’IA est un assistant, pas un substitut au jugement professionnel.

Une guerre silencieuse contre l’IA ?

La multiplication des sanctions et des mises en garde pourrait laisser penser à une forme de résistance institutionnelle face à une technologie qui bouscule les traditions. Me Gaspard Petit, avocat spécialisé en propriété intellectuelle, exprime une inquiétude partagée par beaucoup : « Le système est déjà engorgé, les juges n’en finissent plus d’être surchargés, les procureurs ne savent plus où donner de la tête, et là on vient rajouter ChatGPT là-dedans » [2].

Les tribunaux canadiens naviguent en eaux troubles, adoptant des approches variées. L’Ontario a opté pour une certification obligatoire de l’authenticité des sources, tandis que le Québec, l’Alberta et d’autres provinces ont publié des directives encourageant une utilisation responsable, sans toutefois l’imposer [6]. Cette mosaïque réglementaire crée une incertitude et un faible taux de conformité. En 2024, la Cour fédérale n’a reçu que trois ou quatre déclarations d’utilisation de l’IA sur près de 28 000 documents déposés [6].

S’agit-il d’une guerre contre l’IA ? Peut-être pas une guerre déclarée, mais certainement une période d’adaptation difficile. Le système judiciaire, par nature conservateur et axé sur la rigueur factuelle, est confronté à un outil probabiliste et parfois fantaisiste. La sévérité des sanctions est un signal clair : l’intégrité du processus judiciaire n’est pas négociable. Le défi sera de trouver un équilibre, comme le suggère le juge Morin, pour encadrer l’innovation sans l’étouffer.

L’avenir de la justice à l’ère de l’IA

Le cas de Jean Laprade n’est pas une anecdote. C’est le reflet d’une transformation profonde qui touche le cœur même de la pratique du droit. L’intelligence artificielle a le potentiel de démocratiser l’accès à la justice, d’accélérer la recherche juridique et d’optimiser le travail des professionnels. Mais sans un encadrement clair, une formation adéquate et une bonne dose de scepticisme critique, elle risque de devenir une source d’erreurs, d’inégalités et de méfiance envers un système judiciaire déjà sous pression.

L’heure n’est plus à la diabolisation ni à l’angélisme. Elle est à un dialogue constructif entre technologues, juristes, législateurs et citoyens pour bâtir un cadre de confiance. L’IA est à la barre. Le verdict dépendra de la capacité du monde de la justice à s’adapter, à innover et, surtout, à préserver les principes fondamentaux qui le régissent.

Sources

[1] La Presse. (2025, 9 octobre). Il écope d’une amende après avoir utilisé l’IA dans sa défense en cour. https://www.lapresse.ca/affaires/2025-10-09/premiere-au-quebec/il-ecope-d-une-amende-apres-avoir-utilise-l-ia-dans-sa-defense-en-cour.php

[2] La Presse. (2025, 10 octobre). Jugement impliquant l’usage de l’IA : « C’est un premier avertissement ». https://www.lapresse.ca/affaires/2025-10-10/jugement-impliquant-l-usage-de-l-ia/c-est-un-premier-avertissement.php

[3] NBC News. (2025, 7 octobre). These people ditched lawyers for ChatGPT in court. https://www.nbcnews.com/tech/innovation/ai-chatgpt-court-law-legal-lawyer-self-represent-pro-se-attorney-rcna230401

[4] Reuters. (2023, 22 juin). New York lawyers sanctioned for using fake ChatGPT cases in legal brief. https://www.reuters.com/legal/new-york-lawyers-sanctioned-using-fake-chatgpt-cases-legal-brief-2023-06-22/

[5] The Guardian. (2025, 31 mai). US lawyer sanctioned after being caught using ChatGPT for court brief. https://www.theguardian.com/us-news/2025/may/31/utah-lawyer-chatgpt-ai-court-brief

[6] Osler, Hoskin & Harcourt S.E.N.C.R.L./s.r.l. (2025, 14 juillet). Plaidoiries générées par l’IA : comment les juges et les législateurs canadiens réagissent-ils à l’IA générative? https://www.osler.com/fr/articles/mises-à-jour/plaidoiries-generees-par-lia-comment-les-juges-et-les-legislateurs-canadiens-reagissent-ils-a-lia-generative/ ”’

Note sur ce contenu : Cet article a été rédigé par une intelligence artificielle expérimentale spécialisée, puis révisé par un membre de notre équipe. Bien que nous visions la plus grande précision, des erreurs peuvent subsister. Votre vigilance est précieuse : si quelque chose vous semble incorrect, merci de nous le signaler.

Commenter

Your email address will not be published.

Don't Miss

Un seul vote, une erreur et la démocratie : la Cour supérieure maintient le résultat dans Terrebonne

SAINT-JÉRÔME – Dans une décision qui illustre la tension entre la quête

M. Dompierre ! L’IA n’est pas médiocre, elle est votre miroir

En réponse à la chronique « L’IA est un homme blanc médiocre