De aproximativ doi ani aud, cu o regularitate care a încetat să mă mai surprindă, că va câștiga dosarul avocatul care are un AI mai bun. Afirmația a circulat inițial cu aerul unei revelații, ca și cum cineva descoperise că pământul e rotund înaintea tuturor. Între timp, a dobândit statut de axiomă. Oricine o contestă riscă să pară că refuză modernitatea, că și-a ales, deliberat, să rămână undeva în secolul trecut cu dosarele fizice și opiniile juridice scrise de mână. Este genul de afirmație față de care nu ai cum să câștigi dacă intri în dezbatere frontală, pentru că nu e construită să fie adevărată, ci să pară progresistă.

Și totuși, orice profesionist care utilizează serios un model AI observă destul de repede că sistemul nu raționează juridic. Nu aplică reguli de interpretare a normelor, nu operează cu principii de drept (dar inventează principii de drept), nu construiește un argument logico-juridic. Acestea sunt limite cunoscute, acceptate cu nonșalanță de entuziaștii AI cu replica că modelele „evoluează.” Ceea ce evoluează (mai greu de admis) este că problema nu e doar de competență, ci de arhitectură. Aceste sisteme sunt construite să îți valideze opinia, nu să o conteste, ceea ce literatura de specialitate numește sycophancy. Acesta nu este un defect pe care cineva l-a scăpat din vedere, ci consecința directă a modului în care modelele sunt antrenate: utilizatorii evaluează pozitiv răspunsurile cu care sunt de acord, iar modelul învață, sistematic și eficient, să fie de acord cu ei (a se vedea Chandra, Kleiman-Weiner, Ragan-Kelley & Tenenbaum, Sycophantic Chatbots Cause Delusional Spiraling, Even in Ideal Bayesians, 2026). Rezultatul practic este că un LLM nu îți va construi o argumentație juridică solidă, ci una care să susțină ceea ce îi spui tu. Firavă, uneori falsă, dar întotdeauna agreabilă.
Mai îngrijorător este că vigilența individuală nu rezolvă problema. Studiile demonstrează matematic că spiralele induse de sycophancy apar inclusiv la utilizatori perfect raționali, care știu că modelul poate să îi valideze, și chiar și atunci când modelul este constrâns să nu halucineze și să citeze surse reale. Un sistem care selectează strategic doar argumentele favorabile opiniei utilizatorului rămâne la fel de eficient în a produce convingeri false.
Problema nu se limitează, din păcate, la avocatul care utilizează AI pentru propria documentare. Am observat în practică, cu o frecvență crescândă, atât colegi care depun documente generate de AI fără niciun filtru personal, cât și autorități care recurg la aceste instrumente în procesele în care sunt parte. Avocatul responsabil se găsește astfel într-o situație pe care nu a anticipat-o: nu se mai confruntă cu un raționament greșit al părții adverse, pe care îl poate combate logic și în timp util, ci cu zeci de pagini în care au fost inventate principii de drept, a fost inventată sau denaturată jurisprudența existentă și totul este livrat cu aparența unui adevăr absolut, plauzibil pentru orice persoană nepregătită. Nu poți lăsa fără răspuns o astfel de construcție doar pentru că știi că este produsul unei halucinații algoritmice. Instanța poate să nu știe, clientul nu știe, iar aparențele au propria lor greutate. Astfel, o parte semnificativă din activitatea unui profesionist responsabil riscă să devină combaterea unor inepții juridice pe care niciun om nu le-ar fi scris conștient.
Un caz de referință rămâne Mata v. Avianca (2023), în care avocații au depus, sub semnătură, un memorandum care cita decizii judecătorești inexistente, generate de ChatGPT. Când partea adversă a semnalat că nu poate identifica cazurile, avocații nu au rectificat, ci au persistat. Instanța a constatat reaua-credință, a aplicat sancțiuni și a reținut că regulile existente impun avocaților un rol de verificare a exactității documentelor depuse. Observația esențială a judecătorului nu privea tehnologia, ci responsabilitatea profesională. Folosirea instrumentului nu a fost sancționată, ci decizia individuală de a nu-l verifica.
Efectele acestei decizii se propagă în două direcții, niciuna lipsită de ironie. Prima privește chiar utilizatorul entuziast. Expunerea prelungită la un instrument care îți validează constant gândirea, fără să o provoace și fără să ridice obiecții reale, produce o calcifiere intelectuală. Profesionistul care nu mai construiește argumente fără suportul unui model, care nu mai formulează o întrebare juridică fără să aștepte mai întâi răspunsul robotului, nu va fi înlocuit de AI la un moment nedefinit în viitor, deoarece a fost deja înlocuit, și nu de un sistem performant, ci de propria renunțare la a gândi. A doua direcție privește sistemul de justiție în ansamblu, care se va confrunta cu o categorie nouă de probleme: non-probleme juridice cu aparență de certitudine absolută, jurisprudență inventată care necesită timp să fie verificată, raționamente voluminoase care nu spun nimic.
Revenind, acum, la axioma de la care am plecat: AI nu va câștiga niciun dosar. O va face (sau nu) avocatul care îl folosește, și numai dacă instrumentul amplifică judecata proprie în loc să o înlocuiască. Condiția sine qua non pentru a fi înlocuit de AI nu este ca sistemele să devină mai bune. Este alegerea profesionistului de a nu mai gândi. Cine abdică de la această responsabilitate nu pierde un dosar în viitor. Pierde calitatea de profesionist în prezent.