Deloitte Australia a trebuit să returneze o parte din suma plătită de guvern pentru un raport realizat cu ajutorul inteligenței artificiale, după ce documentul a conținut citări false și referințe la studii inexistente. Raportul „Targeted Compliance Framework Assurance Review”, comandat de Departamentul pentru Muncă și Relații de Muncă (DEWR), a costat aproximativ 440.000 de dolari australieni și a vizat analiza sistemului de penalizări din asistența socială. În primele zile de la publicare, academicienii au semnalat multiple erori de referință, evidențiind riscurile utilizării necontrolate a inteligenței artificiale în activități profesionale complexe.

Utilizarea inteligenței artificiale în redactarea raportului
Deloitte Australia a recunoscut, în versiunea revizuită a raportului, că a folosit un lanț de instrumente bazat pe modelul de limbaj generativ GPT‑4o, disponibil prin Azure OpenAI. Mențiunea apare la paginile 58–59 ale documentului de 273 de pagini, marcând prima confirmare publică a implicării AI. Această informație a fost introdusă abia după ce scandalul citărilor false a devenit subiect de anchetă jurnalistică.

Erori de citare și impactul asupra credibilității
Analiza independentă a arătat că din cele 141 de surse bibliografice menționate, doar 127 sunt reale, restul fiind fabricate de modelul AI. Erorile includ:
– citări inexistente atribuite profesoarei Lisa Burton Crawford, specialistă în drept administrativ;
– o decizie judecătorească fictivă semnată de „judecătoarea Jennifer Davis”, nume greșit pentru magistrata Jennifer Davies;
– referințe la studii care nu au fost publicate niciodată.

Aceste deficiențe au condus la solicitarea publică a unei corecții și la întrebări privind fiabilitatea rapoartelor generate prin inteligență artificială.

Reacția Deloitte și a Departamentului de Muncă
Deloitte Australia a anunțat că va returna „ultima tranșă” din suma primită, fără a specifica valoarea exactă. Compania a subliniat că substanța revizuirii rămâne neschimbată și că recomandările sunt valide. DEWR a confirmat că raportul va fi păstrat ca document de lucru, dar a recunoscut că a fost corectat pentru a elimina citările false.

Implicații pentru reglementarea AI în sectorul public
Incidentul readuce în discuție lipsa unor reglementări clare privind utilizarea inteligenței artificiale în consultanță, cercetare și administrație publică. Deși furnizorii de AI, precum Microsoft, avertizează că modelele pot produce „halucinații” – informații aparent credibile, dar inventate – aceste avertismente nu sunt suficiente când miza este instituțională. Scandalul Deloitte subliniază necesitatea unor standarde stricte de transparență și verificare umană în procesele automate.

Monitorizarea continuă a evoluțiilor în domeniul inteligenței artificiale și a cadrului de reglementare rămâne esențială pentru asigurarea acurateței și încrederii în documentele oficiale.