Un avocat base sa défense sur des jurisprudences mentionnées par ChatGPT, mais qui n'existent pasCrédits : SIphotography/iStock

Aux États-Unis, un certain Roberto Mata avait porté plainte après qu'un chariot en métal a heurté son genou dans un aéroport. Pour éviter de voir sa plainte rejetée, Peter LoDuca, son avocat, devait trouver des cas similaires où les plaignants avaient eu gain de cause, explique BFM.

Or, précise Le Figaro, le juge new-yorkais chargé du dossier, P. Kevin Castel, a découvert que « six des arrêts invoqués renvoient à de fausses décisions de justice et mentionnent de fausses citations ».

L'un des collaborateurs de l'avocat, Steven A. Schwartz, a reconnu avoir préparé le dossier en effectuant des recherches sur ChatGPT. Fort de plus de trente ans d'expérience comme juriste et une solide connaissance du droit, il n'avait jamais encore utilisé ChatGPT, et ignorait qu'une partie de ses réponses pouvaient être inventées (ou « hallucinées »), et donc se révéler erronées.

Les captures d'écran transmises au tribunal montrent que ChatGPT lui aurait répondu que ses sources étaient LexisNexis et Westlaw, deux bases de données référençant des décisions de justice, mais il n’avait pas vérifié.

Les deux avocats ont été convoqués à une audience le 8 juin prochain, en vue d'une éventuelle procédure disciplinaire.

Vous n'avez pas encore de notification

Page d'accueil
Options d'affichage
Actualités
Abonné
Des thèmes sont disponibles :
Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !