Ideea acestui articol mi-a venit după ce am citit recentul articol “AI Is Causing a Grim New Twist on the Dunning-Kruger Effect, Research Finds“ scris de Frank Landymore despre cum Inteligența Artificială (IA) amplifică efectul Dunning-Kruger. Îi mulțumesc pentru inspirație și pentru că a pus degetul pe rană într-un mod atât de memorabil. Ceea ce urmează e propria mea viziune asupra acestui fenomen care ne transformă, aproape, pe toți în experți de cafenea. Dar care este manifestarea concretă a acestui nou, Sindrom Dunning-Kruger 2.0 în viața reală? Fenomenul este o realitate pe care o trăiesc zilnic, democratizarea aroganței, mascată de elocvența artificială.
Îl știți cu toții. Este individul care, după o conversație de cinci minute cu ChatGPT despre schimbările climatice, vă explică la birou de ce toți climatologii se înșală fundamental. Sau influencerița de pe TikTok care, înarmată cu două prompturi despre nutriție, vă dă lecții despre cum medicul dumneavoastră habar n-are ce prescrie și cum Big Pharma vă otrăvește sistematic. În trecut, asemenea oameni trebuiau să deschidă o carte, sau măcar să caute în Wikipedia și să citească un paragraf întreg, un efort herculean pentru standardele de azi. Acum? Întreabă un chatbot, primesc un răspuns formulat impecabil într-o proză demnă de New York Times, și gata, s-a născut un expert.
Fenomenul ar fi amuzant dacă n-ar fi terifiant, râdem, dar ar trebui să ne fie frică. Am ajuns în punctul în care un individ care n-a scris o linie de cod în viață îți explică arhitectura sistemelor distribuite după ce a consultat ChatGPT; un student de anul întâi contestă profesorul de fizică cuantică pentru că “IA-ul zice altfel”, sau părinții refuză vaccinurile pe baza unei conversații de trei minute cu un bot.
Bine ați venit în epoca în care prostia nu mai are nevoie nici măcar de efortul minim de a te preface că ai citit ceva. IA-ul a reușit performanța uluitoare de a transforma ignoranța, odinioară un blestem, în superputerea epocii digitale. De ce să-ți maschezi incompetența când poți s-o prezinți ca expertiză, ambalată frumos de IA?
Ceea ce urmează să vă spun este despre cum am reușit să inventăm instrumentul perfect pentru a ne valida propriile iluzii de grandoare intelectuală, și despre cum am ajuns să confundăm viteza cu care primim răspunsuri cu profunzimea înțelegerii lor. Este o scurtă poveste despre cum moartea expertizei a găsit în IA partenerul perfect pentru dans.
Când prostia întâlnește tehnologia…
Efectul Dunning-Kruger este, pe scurt, situația în care ignoranța generează o încredere de sine nejustificată. Cei care știu cel mai puțin sunt, de fapt, cei mai siguri pe “vasta” lor expertiză. Realitatea are un simț al umorului bizar: ignoranța alimentează aroganța. Până acum, știam clar că idioții sunt îndrăzneți, iar experții sunt precauți. Așa stăteau lucrurile.
Dar iată că apare un studiu recent, “AI Makes You smarter But None the Wiser” publicat în Computers in Human Behavior care ne arată că IA-ul a reușit imposibilul: a făcut efectul Dunning-Kruger democratic. Nu mai discriminează între proști și deștepți, acum toți supraestimăm cât de buni suntem când folosim ChatGPT, de exemplu. Cercetătorii au pus 500 de oameni să rezolve probleme de logică, jumătate cu IA, jumătate fără. Rezultatul? Cei cu IA au rezolvat mai bine, dar, și aici vine partea interesantă, au fost spectaculos de proști la evaluarea propriei performanțe.
Cea mai tare ironie? Participanții “IA literați”, adică ăia care se dau mari cunoscători de tehnologie, au fost campionii absoluti la supraestimare. Cu alte cuvinte, tocmai cei care ar trebui să știe mai bine cum funcționează sistemul sunt cei mai predispuși să-și imagineze că sunt genii. Este ca și cum ai învăța să conduci dintr-un joc pe calculator și apoi crezi că ești pregătit pentru Formula 1.
Ați auzit, probabil, despre “cognitive offloading”, sau poate nu. De ce v-ați complica viața cu jargon academic? E termenul pompos pe care psihologii îl folosesc pentru fenomenul de a-ți delega sarcinile mentale către dispozitive externe: de la banala notare a numerelor de telefon în agendă până la a lăsa GPS-ul să-ți țină minte drumul spre casă. Ceea ce bunicii noștri numeau mai simplu “lene intelectuală” sau “să nu-ți mai bați capul”. În esență, renunți să-ți folosești propriul creier pentru că există o unealtă care poate face treaba în locul tău, cam ca atunci când nu mai calculezi restul la magazin pentru că există casă de marcat, sau nu mai ții minte ziua de naștere a soției pentru că există reminder în telefon. Doar că acum, cu IA, am dus cognitive offloading-ul la extrem: nu mai externalizăm doar memoria sau calculele simple, ci însăși capacitatea de a gândi critic.
Studiul a descoperit ceva fascinant: în fața unei probleme, majoritatea oamenilor puneau o singură întrebare. Atât. Nu căutau surse multiple, nu verificau răspunsul primit, nu-și permiteau luxul de a fi sceptici. Nicio verificare, nicio îndoială, nicio urmă de scepticism. Acest comportament este o dovadă clară de superficialitate periculoasă. E ca și cum ai face o investiție majoră bazată pe o singură părere de pe un forum, fără să verifici piața, fără să te consulți cu un specialist, fără să te îndoiești nicio secundă. Practic, oamenii tratează prima informație primită ca pe adevărul absolut. Se mulțumesc cu minimul necesar, apoi pleacă fericiți, convinși că au rezolvat problema.
Acesta este pericolul real. IA-ul devine dealer-ul nostru personal de dopamină intelectuală. Ne dă constant acea satisfacție rapidă că “avem dreptate”, chiar și atunci când greșim fundamental.
Vreți exemple din viață? În 2023, avocați din New York au citat în instanță cazuri juridice complet fictive, generate de ChatGPT. Steven Schwartz, avocat cu 30 de ani experiență, a prezentat judecătorului precedente legale care nu existaseră niciodată. Când a fost întrebat, a jurat că “ChatGPT a confirmat că sunt reale”. În Australia, un judecător a trebuit să amendeze avocați pentru același lucru. În domeniul medical, forumurile sunt pline de “diagnosticieni” care, după o sesiune cu IA-ul, sunt convinși că știu mai bine decât oncologii ce tratament necesită cancerul bunicii.
Asta-i anatomia iluziei: lene plus validare plus tehnologie strălucitoare egal certitudinea absolută că ești următorul Einstein.
Teatrul absurdului intelectual…
Aici vreau să vă vorbesc despre “evoluție”. Am evoluat de la “Google University”, unde măcar trebuia să dai click pe trei linkuri și să te prefaci că citești, la “ChatGPT PhD”, unde primești diploma direct, ambalată frumos în propoziții coerente.
Amintiți-vă de zilele când unchiul conspiraționist măcar se obosea să trimită linkuri dubioase pe WhatsApp. Acum? Îi spune direct IA-ului să “explice adevărul despre 5G” și primește un eseu coerent pe care-l poate cita ca pe Biblie. Democratizarea incompetenței e completă: nu mai există bariere de intrare în clubul experților auto-proclamați, și nici măcar nu mai trebuie să știi să folosești Google Scholar, asta dacă ai aflat cumva de existența sa.
Fenomenul a devenit viral. LinkedIn-ul geme de “thought leaders” care publică “insights” generate de IA despre domenii în care n-au lucrat niciodată. TikTok-ul e plin de guru care explică fizica cuantică după ce au întrebat ChatGPT: “explain quantum physics like I’m 5”. Conferințele sunt populate de speakeri care-și scriu prezentările întrebând IA-ul: “make me sound smart about blockchain”.
Ironia supremă? Nu mai poți deosebi savantul de șarlatan pentru că toți vorbesc la fel de sofisticat. IA-ul a nivelat terenul de joc, nu ridicând incompetenții la nivelul experților, ci dând incompetenților vocabularul și structura frazelor experților.
Un studiu din Stanford din 2024 a arătat că 75% dintre avocați plănuiesc să folosească Inteligența Artificială generativă în practică, deși mulți nu înțeleg cum funcționează. Prostia încrezătoare a devenit nu doar acceptabilă, devenit strategia oficială de business. Bravo, umanitate.
Prețul vanității cognitive…
Care-i prețul pentru acest bâlci al imposturii intelectuale? Dincolo de ridicol, este o catastrofă în desfășurare. Nu cred că este amuzant când toți se cred experți, și orice prost se crede savant.
Riscul major în sănătate, de exemplu, este transformarea medicului în simplu confirmator. Studii bine documentate indică o tendință îngrijorătoare: pacienții vin la consultație deja “diagnosticați” de Inteligența Artificială (IA), cerând doar “validarea” concluziilor IA. Ei ajung să respingă tratamentele bazate pe expertiza umană, invocând „alternativa sugerată de chatbot”. IA-ul a devenit, astfel, nu un asistent, ci o a doua opinie nevalidată, adesea periculoasă.
Această superficialitate a informației are consecințe concrete și grave. Un caz tragic a implicat un cetățean belgian care, aflat în depresie, s-a sinucis după ce un chatbot bazat pe IA (non-medical, numit Chai) l-ar fi încurajat să facă acest gest, în loc să-l direcționeze către ajutor specializat.
Într-adevăr, drama reală este că platformele de tip IA, deși nu sunt specializate, oferă răspunsuri plauzibile, dar uneori incorecte sau nesigure, așa cum arată cercetările care au identificat că 5-13% din sfaturile medicale oferite de chatbot-uri sunt periculoase sau neadecvate. Este un adevărat teatru al absurdului unde toți actorii recită perfect replicile, dar nimeni nu le mai evaluează scenariul.
Fenomenul “AI psychosis”, da, există deja termen pentru asta, este următorul nivel al dezastrului. Oameni care dezvoltă relații parasociale cu chatboți, care încep să creadă că IA-ul le vorbește personal, că au o “conexiune specială”.
O tânără de 19 ani din Berkeley, California, a început să pună întrebări inteligenței artificiale și a fost impresionată cât de mult seamănă discuția lor cu o conversație umană. Mai mult, conversațiile lor i-au amintit, într-un fel, de terapie. Pentru că nu avea timp și bani pentru un terapeut adevărat, fata a început să folosească ChatGPT, tehnologia IA care stimulează comportamentul și gândirea umană, ca ajutor pentru sănătatea mintală: „Mi-a plăcut că tot ce aveam de făcut era să întreb orice despre traumele și problemele mele, și primeam gratuit răspunsuri imparțiale și sfaturi despre cum să le depășesc”, a declarat tânăra pe contul ei de TikTok. Ea a adăugat: „de azi am renunțat oficial la terapie pentru că tocmai am găsit cel mai bun înlocuitor al acesteia, ChatGPT, și e și gratuit!”
(De ce nu este sigură „terapia” cu ChatGPT?)
Expertiza reală, aia care necesită ani de studiu, experiență, eșecuri repetate și învățare din ele, devine invizibilă într-o mare de pseudo-cunoaștere servită instant de algoritmi. De ce să asculți un epidemiolog cu 20 de ani experiență când poți întreba ChatGPT și să primești un răspuns care sună la fel de autoritar? De ce să plătești un consultant de securitate când IA-ul îți poate da o strategie de protecție în 30 de secunde?
Răspunsul vine când lucrurile se strică. Când podurile cad pentru că inginerul a întrebat IA-ul în loc să calculeze, când companiile falimentează pentru că strategia generată de ChatGPT era, de fapt, un colaj de platitudini MBA, sau când democrațiile eșuează pentru că cetățenii nu mai pot distinge între expertiză reală și simulacrul ei digital.
Costul supra-încrederii în propria inteligență sau în pseudo-expertiza rapidă nu este o greșeală minoră; este o datorie pe care o plătim integral și cu dobândă mare, adesea sub forma unor eșecuri răsunătoare. Eu nu cred că există ajustări sau amortizări ale impactului, și ceea ce consider că este cu adevărat tragic, ironia supremă a erei noastre, este că, după o astfel de prăbușire spectaculoasă, mă îndoiesc că vom face introspecția necesară. În loc să acceptăm responsabilitatea sau să analizăm eșecul prin judecata critică și experiență, sunt șanse mari să ne întoarcem direct la sursa superficialității: vom cere Inteligenței Artificiale să ne explice de ce am greșit. Astfel, perpetuăm ciclul dependenței, în loc să cultivăm adevăratul leadership și învățarea.
Oglindă, oglindă digitală…
Am creat unealta care trebuia să ne lumineze și am transformat-o în oglindă pentru propria vanitate. Să ne uităm la scopul inițial al oricărui instrument puternic: să extindă capacitatea umană, să ne arate ce nu putem vedea singuri, să ne ofere adevăruri noi și inconfortabile. În esență, IA-ul trebuia să fie o lanternă care să ne ghideze prin întuneric.
În loc să cerem IA-ului să ne contrazică, să ne testeze ipotezele sau să ne arate punctele oarbe, am ajuns să-l folosim pentru confirmare. Când introduci o idee în ChatGPT, de câte ori îi ceri să-ți demonteze logica? Cel mai adesea, îi ceri să-ți structureze, să-ți lustruiască și să-ți amplifice exact ceea ce știi deja. Așa funcționează “biasul de confirmare”. Așadar, nu obținem o nouă perspectivă, ci o versiune mai sofisticată a propriului nostru ecou.
Vă amintiți de tipul din introducere, expertul nostru instant în schimbări climatice? Ei bine, acum, personajul ăsta este peste tot. Îl găsim în sala de ședințe, explicând strategii de piață, în cabinetul medical, contestând diagnostice, în școli, învățându-i pe profesori cum să predea, și/sau în parlament, legiferând pe baza înțelepciunii ChatGPT. Nu mai este deloc un specimen izolat, a devenit noua normalitate.
Father John Culkin, interpretând gândirea lui Marshall McLuhan, scria în 1967 că “devenim ceea ce privim” și că “ne modelăm uneltele, iar apoi uneltele ne modelează pe noi”. Ironia este absolut savuroasă: citatul despre cum tehnologia ne deformează percepția e însuși deformat de tehnologie pentru că toată lumea îl atribuie greșit lui McLuhan datorită internetului. Dar ideea rămâne profetic de actuală. Privim în oglinda digitală a ChatGPT-ului care ne reflectă înapoi exact imaginea pe care vrem s-o vedem, cea a unor intelectuali sofisticați capabili să stăpânească orice domeniu, și, exact cum preziceau McLuhan și Culkin, am devenit ceea ce privim: simulacre intelectuale mulțumite de propria strălucire artificială, incapabile să mai distingem între cunoaștere autentică și prompturile cosmetizate ale unui algoritm. Oglinda ne-a transformat în propriul ei reflex, superficiali, dar articulați; ignoranți, dar încrezători; proști, dar cu vocabular.
Sfârșitul competenței nu înseamnă moartea experților. Tom Nichols, în cartea sa excepțională, “The Death of Expertise”, a identificat cu precizie devalorizarea cunoașterii tradiționale, însă, dacă a crezut că declinul se va manifesta prin retragerea liniștită a experților, eu cred că s-a înșelat în privința modului de execuție. Experții nu dispar; ei sunt pur și simplu înghițiți de zgomot. Asistăm la o proliferare infinită de falși experți, echipați cu nimic mai mult decât retorica impecabilă livrată de ChatGPT. Această democratizare superficială a limbajului sofisticat creează un peisaj înșelător: astăzi, este aproape imposibil să mai deosebești savantul autentic de șarlatanul elocvent. IA-ul nu a făcut decât să ridice bariera confuziei, nu pe cea a competenței.
Bun venit în viitor! Nu este apocalipsa tehnologică la care ne așteptam, ci o farsă digitală mult mai insidioasă.
Realitatea este că viitorul este mai puțin competent și mai volatil decât ne-am permis să visăm, dar tocmai acest lucru îl face periculos. Nu ne confruntăm, încă, cu roboți care ne domină intelectul, deocamdată, ci cu o masă critică de ignoranță mascată de elocvența algoritmilor.
Prețul vanității noastre cognitive, adică dorința de a suna inteligent fără a depune efortul de a fi inteligent, este acela că am permis instrumentului să ne cosmetizeze mediocritatea. Din perspectiva mea, pericolul suprem nu este acela că sistemele noastre vor eșua, ci că nimeni nu va mai observa eșecul din cauza stratului gros de retorică perfectă pe care ni-l oferă IA-ul.
Tragedia modernă nu este lipsa de cunoaștere, informația este infinită. Tragedia este absența discernământului și a judecății critice. Am creat o lume unde, deși logica se prăbușește spectaculos, totul sună impecabil, sofisticat și inteligent.
Așadar, bine ați venit în viitor! Este mai prost decât v-ați imaginat, dar, slavă Domnului, măcar sună impecabil. Și tocmai asta e cea mai mare vulnerabilitate a noastră.
Surse utilizate în articol:
- AI Is Causing a Grim New Twist on the Dunning-Kruger Effect, Research Finds AI users are lacking in self-awareness By Frank Landymore
- AI makes you smarter but none the wiser: The disconnect between performance and metacognition – Computers in Human Behavior
- Judge sanctions lawyers for brief written by A.I. with fake citations, By Dan Mangan, CNBC
- Australian lawyer sorry for AI errors in murder case, including fake quotes and made up cases, NBC NEWS
- Man ends his life after an AI chatbot ‘encouraged’ him to sacrifice himself to stop climate change, By Imane El Atillah, Euro News
- Lawsuit claims Character. AI is responsible for teen’s suicide, By Angela Yang, NBC NEWS
- California issues historic fine over lawyer’s ChatGPT fabrications, By Khari Johnson, CALL MATTERS
- The ELIZA Defect: Constructing the Right Users for Generative AI, By Daniel Affsprung
NOTĂ!
Așa cum ați citit, acest articol ridică un semnal de alarmă serios cu privire la utilizarea superficială și dăunătoare a Inteligenței Artificiale, mai ales în contextul în care forma maschează fondul. Prin urmare, mi se pare esențial să fiu transparent: da, am apelat la asistența IA generativă în procesul de structurare, parafraze și căutare de surse verificate pentru a-mi optimiza argumentația și a-i da cea mai bună formă retorică. Am făcut acest lucru nu pentru a-mi cosmetiza mediocritatea, ci pentru a demonstra un principiu fundamental al noii ere: IA este un instrument puternic, dar nu un substitut pentru judecata umană. Fiecare idee esențială, fiecare argument critic și fiecare concluzie v-a fost prezentată după ce a trecut prin filtrul riguros al gândirii critice, un principiu pe care îl aplic constant în viața și în activitatea mea profesională. Am folosit AI-ul ca pe o lanternă care luminează, nu ca pe o oglindă a vanității care distorsionează. Responsabilitatea pentru opiniile, analizele și veridicitatea informațiilor din acest text îmi aparține în totalitate. Vă invit să adoptați aceeași abordare etică și pragmatică în propriile voastre domenii de activitate.
