Halucinațiile AI și riscurile juridice ale informațiilor false au devenit subiect de actualitate, iar Damien Charlotin, cercetător senior la HEC Paris, a înregistrat cel puțin 490 de dosare judiciare în ultimele șase luni în care inteligența artificială a generat conținut înșelător. Studiul său evidențiază o creștere rapidă a erorilor AI pe măsură ce tot mai mulți utilizatori recurg la aceste tehnologii.

catalogarea halucinațiilor AI în instanțe
Charlotin a creat o bază de date pentru a urmări cazurile în care judecătorii au constatat „halucinații” ale AI, cum ar fi jurisprudență fabricată și citate false. Majoritatea hotărârilor provin din Statele Unite, unde reclamanții s-au reprezentat singuri, fără asistență juridică. Deși unii judecători se limitează la avertismente, alții au impus amenzi pentru documente defectuoase.

exemple de erori AI în dosare importante

  • Un avocat al MyPillow Inc. a depus un memoriu cu aproape 30 de citate incorecte într-un proces de calomnie în Colorado.
  • În alte cazuri, instrumente AI au furnizat citate și referințe inexistente, obligând judecătorii să respingă sau să corecteze documentele.

AI ca asistent, nu ca înlocuitor
Maria Flynn, CEO al Jobs for the Future, subliniază că instrumentele AI trebuie privite ca suport pentru sarcini repetitive, nu ca substitut al gândirii critice. Experiențele sale arată că AI poate propune întrebări și sugestii utile, însă necesită verificare constantă.

verificarea acurateței informațiilor AI

  • Utilizatorii trebuie să confirme citatele și datele generate de AI cu surse originale.
  • Într-un test intern, instrumentul AI nu a reușit să distingă propunerile de proiectele finalizate, evidențiind limitările sale.

precauții în luarea notițelor cu AI
În multe jurisdicții, înregistrarea conversațiilor necesită consimțământul părților. Danielle Kays, partener la Fisher Phillips, avertizează că utilizarea AI pentru rezumarea ședințelor poate încălca confidențialitatea și privilegiul juridic, iar tribunalul poate impune reguli stricte privind consimțământul.

protejarea informațiilor confidențiale
Instrumentele AI gratuite nu fac diferența între date publice și private. Dacă se încarcă informații sensibile, acestea pot deveni accesibile altor utilizatori ai aceluiași sistem, creând riscuri de securitate pentru companii.

formare și alfabetizare digitală
Flynn recomandă cursuri de formare în utilizarea AI, fie prin platforme gratuite precum ChatGPT, fie prin programe universitare. Înțelegerea funcționării AI și a tehnicilor de promptare eficientă permite utilizatorilor să evite capcanele și să exploateze avantajele tehnologice.

  • Învață să formulezi solicitări clare.
  • Testează instrumentele în medii pilot.
  • Actualizează-ți cunoștințele în mod regulat.

Monitorizarea continuă a evoluțiilor AI și adoptarea unor practici riguroase de verificare rămân esențiale pentru a reduce impactul halucinațiilor AI în domenii juridice și profesionale.