Home Politic Des rapports juridiques truffés d’erreurs montrent les limites du recours aux outils...

Des rapports juridiques truffés d’erreurs montrent les limites du recours aux outils d’IA au travail

16
0



NEW YORK – Les juges du monde entier sont aux prises avec un problème croissant : des mémoires juridiques générés à l’aide de l’intelligence artificielle et soumis avec des erreurs telles que des citations de cas qui n’existent pas, selon les avocats et les documents judiciaires.

Cette tendance sert d’avertissement aux personnes qui apprennent à utiliser les outils d’intelligence artificielle au travail. De nombreux employeurs souhaitent embaucher des travailleurs capables d’utiliser la technologie pour les aider dans des tâches telles que la réalisation de recherches et la rédaction de rapports. Alors que les enseignants, les comptables et les spécialistes du marketing commencent à interagir avec les assistants IA et les chatbots pour générer des idées et améliorer la productivité, ils découvrent également que les programmes peuvent commettre des erreurs.

Damien Charlotin, data scientist et avocat français, a répertorié au moins 490 dossiers judiciaires au cours des six derniers mois contenant des « hallucinations », c’est-à-dire des réponses d’IA contenant des informations fausses ou trompeuses. Le rythme s’accélère à mesure que de plus en plus de personnes utilisent l’IA, a-t-il déclaré.

“Même le joueur le plus sophistiqué peut avoir des problèmes avec cela”, a déclaré Charlotin. “L’IA peut être d’une grande aide. C’est merveilleux, mais il y a aussi quelques inconvénients.”

Charlotin, chercheur principal à HEC Paris, une école de commerce située à la périphérie de la capitale française, a créé une base de données pour suivre les cas dans lesquels un juge a jugé que l’IA générative produisait des contenus hallucinants, tels que des jurisprudences fabriquées et de fausses citations. La plupart des décisions proviennent d’affaires américaines dans lesquelles les plaignants se sont représentés eux-mêmes sans avocat, a-t-il déclaré. Alors que la plupart des juges ont émis des avertissements concernant les erreurs commises, certains ont imposé des amendes.

Mais même des entreprises de premier plan ont déposé des documents juridiques problématiques. Un juge fédéral du Colorado a statué qu’un avocat de MyPillow Inc. avait déposé un mémoire contenant près de 30 assignations à comparaître défectueuses dans le cadre d’une affaire de diffamation contre l’entreprise et son fondateur Michael Lindell.

La profession juridique n’est pas la seule à être confrontée aux faiblesses de l’IA. Les aperçus de l’IA qui apparaissent en haut des pages de résultats de recherche sur le Web contiennent souvent des erreurs.

Et les outils d’IA soulèvent également des problèmes de confidentialité. Les travailleurs de tous les secteurs doivent faire attention aux détails qu’ils téléchargent ou incluent dans les instructions afin de garantir qu’ils protègent les informations confidentielles de l’employeur et des clients.

Des experts juridiques et du travail partagent leurs expériences concernant les pièges de l’IA et soulignent les pièges à éviter.

Considérez l’IA comme un assistant

Ne comptez pas sur l’IA pour prendre de grandes décisions à votre place. Certains utilisateurs d’IA traitent l’outil comme un stagiaire à qui ils assignent des tâches et dont ils espèrent vérifier l’intégralité du travail.

“Considérez l’IA comme une augmentation de votre flux de travail”, a déclaré Maria Flynn, directrice exécutive de Jobs for the Future, une organisation à but non lucratif axée sur le développement de la main-d’œuvre. Il peut servir d’assistant pour des tâches telles que la rédaction d’un courrier électronique ou la recherche d’un itinéraire de voyage, mais ne le considérez pas comme un substitut capable de faire tout le travail, a-t-il déclaré.

Lors de la préparation d’une réunion, Flynn a expérimenté un outil d’IA interne et lui a demandé de suggérer des questions de discussion basées sur un article qu’il avait partagé avec l’équipe.

“Certaines des questions qu’il a proposées n’étaient pas vraiment adaptées au contexte de notre organisation, j’ai donc pu lui faire part de certains de ces commentaires… et ils ont répondu à cinq questions très réfléchies”, a-t-il déclaré.

vérifier l’exactitude

Flynn a également constaté des problèmes avec les résultats de l’outil d’intelligence artificielle, qui est encore au stade pilote. Il lui a demandé un jour de rassembler des informations sur le travail que son organisation avait réalisé dans plusieurs États. Mais l’outil d’IA traitait les travaux terminés et les propositions de financement comme la même chose.

“Dans ce cas, notre outil d’IA n’a pas pu identifier la différence entre quelque chose qui avait été proposé et quelque chose qui avait été réalisé”, a déclaré Flynn.

Heureusement, elle possédait les connaissances institutionnelles nécessaires pour reconnaître les erreurs. “Si vous êtes nouveau dans une organisation, demandez à vos collègues s’ils trouvent les résultats exacts”, a suggéré Flynn.

Même si l’IA peut aider au brainstorming, s’appuyer sur elle pour fournir des informations objectives est risqué. Prenez le temps de vérifier l’exactitude de ce que génère l’IA, même s’il est tentant de sauter cette étape.

“Les gens font des hypothèses parce qu’il semble très plausible que cela soit correct et pratique”, a déclaré Justin Daniels, avocat basé à Atlanta et actionnaire du cabinet d’avocats Baker Donelson. “Devoir revenir en arrière et vérifier tous les rendez-vous, ou quand je regarde un contrat que l’IA a résumé, je dois revenir en arrière et lire ce que dit le contrat, c’est un peu gênant et prend du temps, mais c’est ce que vous devez faire. Même si vous pensez que l’IA peut remplacer cela, ce n’est pas le cas.”

Méfiez-vous des preneurs de notes

Il peut être tentant d’utiliser l’IA pour enregistrer et prendre des notes lors de réunions. Certains outils génèrent des résumés utiles et décrivent les étapes d’action en fonction de ce qui a été dit.

Mais de nombreuses juridictions exigent le consentement des participants avant d’enregistrer des conversations. Avant d’utiliser l’IA pour prendre des notes, faites une pause et réfléchissez si la conversation doit rester privilégiée et confidentielle, a déclaré Danielle Kays, associée du cabinet d’avocats Fisher Phillips, basé à Chicago.

Consultez des collègues des services juridiques ou des ressources humaines avant de faire appel à un preneur de notes dans des situations à enjeux élevés, telles que des enquêtes, des évaluations de performances ou des discussions de stratégie juridique, a-t-il suggéré.

“Les gens disent qu’avec l’utilisation de l’IA, il devrait y avoir plusieurs niveaux de consentement, et c’est quelque chose qui est en train d’être porté devant les tribunaux”, a déclaré Kays. “C’est une question que je dirais que les entreprises devraient continuer à surveiller pendant qu’elle fait l’objet de litiges.”

Protéger les informations confidentielles

Si vous utilisez des outils d’IA gratuits pour rédiger un mémo ou une campagne marketing, ne leur fournissez pas d’informations d’identification ou de secrets d’entreprise. Une fois que vous avez téléchargé ces informations, il est possible que d’autres personnes utilisant le même outil les trouvent.

En effet, lorsque d’autres personnes posent des questions à un outil d’IA, celui-ci examine les informations disponibles, y compris les détails que vous avez révélés, au fur et à mesure qu’il construit sa réponse, a déclaré Flynn. “Cela ne fait pas la distinction entre quelque chose qui est public ou privé”, a-t-il ajouté.

chercher l’école

Si votre employeur ne propose pas de formation en IA, essayez d’expérimenter des outils gratuits comme ChatGPT ou Microsoft Copilot. Certaines universités et entreprises technologiques proposent des cours qui peuvent vous aider à développer votre compréhension du fonctionnement de l’IA et de la manière dont elle peut être utile.

Un cours qui enseigne aux gens comment créer les meilleures invites d’IA ou des cours pratiques offrant des opportunités de pratique sont précieux, a déclaré Flynn.

Malgré les problèmes potentiels liés aux outils, apprendre comment ils fonctionnent peut être bénéfique à une époque où ils sont omniprésents.

“Le plus grand obstacle potentiel à l’apprentissage de l’IA est de ne pas apprendre à l’utiliser du tout”, a déclaré Flynn. “Nous allons tous devoir maîtriser l’IA, et faire les premiers pas pour nous familiariser, apprendre et nous sentir à l’aise avec l’outil sera d’une importance vitale.”

___

Partagez vos histoires et vos questions sur le bien-être au travail à cbussewitz@ap.org. Suivez la couverture Be Well d’AP, axée sur le bien-être, la forme physique, l’alimentation et la santé mentale sur https://apnews.com/hub/be-well

Droit d’auteur 2025 La Presse Associée. Tous droits réservés. Ce matériel ne peut être publié, diffusé, réécrit ou redistribué sans autorisation.



Source link