Faire rapidement au dépens de la qualité: Les frais juridiques ne sont certainement pas bon marché, donc lorsque nous retenons une représentation juridique, nous supposons que nous payons pour le temps et l’expertise de ce professionnel juridique. Plutôt que de fournir les services typiques retenus, un avocat de Manhattan a tenté de raccourcir le processus de recherche en laissant ChatGPT citer ses références de cas pour un dépôt auprès de la Cour fédérale. Et comme il l’a découvert à ses dépens, la vérification des faits est assez importante, surtout lorsque votre IA a un penchant pour inventer des faits.
L’avocat Steven A. Schwartz a été retenu par un client pour le représenter dans une affaire de lésions corporelles contre Avianca Compagnies Aériennes. Selon l’affirmation, le client de Schwartz aurait été frappé au genou avec un chariot de service lors d’un vol en 2019 vers l’aéroport international Kennedy.
Comme on pouvait s’y attendre dans ce type de situation juridique, la compagnie aérienne a demandé à un juge fédéral de Manhattan de jeter l’affaire, ce à quoi Schwartz s’est immédiatement opposé. Jusqu’à présent, cela ressemble à un échange de salle d’audience assez typique. C’est-à-dire jusqu’à ce que Schwartz, qui n’avait jamais utilisé ChatGPT auparavant, décide qu’il était temps de laisser la technologie parler.
Dans son opposition à la demande d’Avianca, Schwartz a soumis un mémoire de 10 pages citant plusieurs décisions judiciaires pertinentes. Les citations faisaient référence à des affaires similaires, notamment Martinez c. Delta Air Lines, Zicherman c. Korean Air Lines et Varghese c. China Southern Airlines. Selon le New York Times‘ article, la dernière citation a même fourni une longue discussion de la loi fédérale et « l’effet péage de la suspension automatique d’un délai de prescription ».
Bien qu’il semble que Schwartz soit venu armé et prêt à défendre l’affaire, il y avait un problème sous-jacent : aucun de ces cas n’est réel. Martinez, Zicherman et Varghese n’existent pas. ChatGPT les a tous fabriqués dans le seul but de soutenir la soumission de Schwartz.
Un avocat de New York risque une sanction judiciaire après avoir utilisé #ChatGPT pour préparer un dossier juridique déposé devant un tribunal de Manhattan. Les cas cités par #ChatGPT étaient tous faux. Du bon côté des choses, #IA ne remplacera peut-être pas les avocats de sitôt. https://t.co/fHGkQZhxRk
– Dr Gédéon Christian (@ProfXtian) 27 mai 2023
Confronté à l’erreur du juge P. Kevin Castel, Schwartz a reconnu qu’il n’avait aucune intention de tromper le tribunal ou la compagnie aérienne. Il a également regretté de s’être fié au service d’intelligence artificielle, admettant qu’il n’avait jamais utilisé ChatGPT et qu’il « ignorait la possibilité que son contenu soit faux ». Selon les déclarations de Schwartz, il a tenté à un moment donné de vérifier l’authenticité des citations en demandant à l’IA si les cas étaient en fait réels. Il a simplement répondu « oui ».
Le juge Castel a ordonné une audience de suivi le 8 juin pour discuter des sanctions potentielles liées aux actions de Schwartz. L’ordonnance de Castel a présenté avec précision les nouvelles situations étranges comme « une circonstance sans précédent », jonchée de « fausses décisions judiciaires, avec de fausses citations et de fausses citations internes ». Et dans un cruel coup du sort, le cas de Schwartz pourrait très bien finir comme l’une des citations utilisées dans les futures affaires judiciaires liées à l’IA.