decembrie 26, 2025
bevw

Un avocat australian a fost nevoit să se retragă și să-și exprime regretul profund în fața instanței, după ce a depus concluzii care conțineau citate juridice inventate de un soft de inteligență artificială. Incidentul a avut loc într-un dosar penal de crimă, unde instrumentele automate au produs referințe inexistente, generând confuzie și întârzieri în derularea procesului.

Deși deține titlul prestigios de King’s Counsel, avocatul Rishi Nathwani și-a asumat întreaga responsabilitate pentru prezentarea unor date eronate. El a recunoscut că echipa sa a verificat doar parțial sursele, presupunând în mod nejustificat că toate citatele erau corecte. În realitate, unele dintre ele pur și simplu nu existau în jurisprudență.

Judecătorul a reacționat ferm, subliniind că acuratețea materialelor depuse de avocați este esențială pentru buna funcționare a justiției. Instanța a amintit că deja anul trecut au fost emise avertismente specifice privind utilizarea responsabilă a tehnologiei generative în practica juridică.

Acesta nu este primul caz de acest gen. În Statele Unite, de exemplu, avocați au fost sancționați pentru prezentarea unor decizii inventate de ChatGPT. Similar, în Marea Britanie, au fost semnalate numeroase situații în care inteligența artificială a generat conținut juridic iluzoriu.

Problema are implicații profunde: atunci când avocații se bazează fără verificare pe astfel de instrumente, se periclitează nu doar cauza pe care o apără, ci și credibilitatea întregului sistem juridic. Este necesar ca orice material produs cu ajutorul IA să fie supus unei verificări riguroase și independente, înainte de a fi prezentat instanței.

În cazul concret, tribunalul a stabilit, în final, că acuzatul – un minor – nu este vinovat de crimă din cauza unor probleme de sănătate mintală. Dar amănuntele acestui episod rămân ca un avertisment serios pentru toți practicienii dreptului.