În 2015, Umberto Eco rostea la Universitatea din Torino o frază care avea să devină profetică:
Cu social media s-a dat dreptul la cuvânt unor legiuni de imbecili care înainte vorbeau la bar, după un pahar de vin, fără să facă rău colectivității. Erau repede reduși la tăcere, dar acum au același drept la cuvânt ca și un premiat Nobel.

Pe atunci, mulți au considerat că marele scriitor exagera. Astăzi, privind în urmă, ne dăm seama că Eco nu numai că avea dreptate, dar a văzut doar vârful icebergului.
Dacă Facebook , X și TikTok au oferit platformele, noi trăim acum o fază mult mai periculoasă: validarea și amplificarea prin Inteligența Artificială. Platforma unde “prostul satului” își exprima părerile, a devenit un partener digital care îi confirmă aberațiile și îi produce chiar “dovezi” pentru ele. Inteligența Artificială a devenit complicele perfect al ignorantului cu convingeri.
Acest articol este despre o criză de discernământ care devine tot mai acută, în care am analizat cum Inteligența Artificială, accesată de persoane fără gândire critică, se transformă într-o armă împotriva adevărului, erodând încrederea și creând realități paralele bazate pe convingeri, nu pe fapte. Vă propun să mă însoțiți într-o călătorie pe etape, începând cu “Democratizarea prostiei” și terminând cu întrebarea “Cum ne apărăm de „Idiotul Amplificat?”.
Faza I-a: Democratizarea prostiei…
Pentru a înțelege dezastrul în care ne aflăm, trebuie să ne întoarcem la originile acestei probleme, și cred că trebuie să pornim de la o întrebare simplă: de ce Facebook și TikTok refuză să ne arate postările prietenilor în simpla ordine în care au fost publicate? Răspunsul, odată ce îl acceptăm, explică aproape totul. Aceste companii, să le numim ce sunt cu adevărat, niște mașinării de profit, operează pe baza unor algoritmi al căror unic scop este să te țină lipit de ecran. Nu există nicio conspirație complicată aici, doar un calcul rece. Adevărul? Irelevant. Educația ta? Nu apare în nicio ecuație. Ceea ce contează, singurul lucru care contează, este engagement-ul: clicurile, reacțiile, comentariile și, mai presus de orice, minutele pe care le petreci derulând fără scop. Din această logică, pur comercială, decurge o consecință pe care am refuzat să o vedem: o știre fabricată care stârnește indignare și generează două sute de comentarii furioase valorează incomparabil mai mult decât un articol riguros documentat care primește trei like-uri și este ignorat. Economia atenției nu are nicio treabă cu economia adevărului.
Rezultatul? Algoritmii au construit ceea ce experții denumesc „bule informaționale” și „camere de ecou”. Fiecare utilizator este captiv într-un soi de seră transparentă, perfect calibrată pentru confortul său intelectual. În interiorul ei, individul nu vede decât ceea ce deja credea că știe. Dacă este convins că vaccinurile reprezintă o amenințare, algoritmul îi va servi cu generozitate „dovezi” despre pericolele lor. Dacă are o înclinație politică anume, va primi un flux neîntrerupt de conținut care îi validează fiecare prejudecată..
Aici se naște transformarea de care vorbea Eco. “Prostul satului”, care înainte își exprima părerile doar la cârciumă, în fața a trei-patru localnici care îl cunoșteau și îl tolerau, a descoperit că nu este singur. A găsit alte sute de “proști” din alte sate, orașe, chiar țări, care gândesc exact ca el. Împreună, au format un “sat global al proștilor”, unde convingerile lor sunt validate reciproc, în timp real, 24 de ore din 24. În felul acesta, opinia a învins cunoașterea, și asta nu prin superioritate intelectuală, ci prin volum și persistență. Când vezi aceeași informație falsă distribuită de 50 de persoane din cercul tău social, creierul tău începe să o considere credibilă, indiferent de adevărul ei faptic. Este un fenomen psihologic perfect normal, dar cu consecințe devastatoare în era digitală.
Faza a II-a: Industrializarea falsului…
Dacă prima fază ne-a oferit platformele unde prostia să se exprime și să se valideze reciproc, faza a doua ne aduce ceva mult mai periculos: un partener digital care nu doar ascultă aberațiile, ci le și produce la comandă. Pentru a înțelege complet această transformare, am analizat două roluri fundamentale pe care Inteligența Artificială le joacă în această nouă realitate.
Inteligența Artificială ca generator de “dovezi” – Să clarificăm ceva esențial: Inteligența ArtificialăGenerativă nu “gândește”, și nu are noțiunea de adevăr obiectiv. ChatGPT, Claude, sau Gemini sunt, în esență, motoare foarte sofisticate de predicție și creare de conținut, antrenate pe miliarde de texte și imagini, care produc răspunsuri bazându-se pe modele statistice ale limbajului și vizualului, nu pe logică sau pe verificarea faptelor. Această caracteristică, care în sine nu este nici bună, nici rea, devine problematică când întâlnește o minte conspirationistă. Vă dau un exemplu concret și cât se poate de real: cineva care crede cu tărie că Pământul este plat îi cere lui ChatGPT: “Scrie-mi un articol convingător despre dovezile că Pământul este plat”. ChatGPT, ca un sclav docil și eficient, va produce exact ceea ce i se cere. Nu va protesta, nu va corecta, nu va încerca să educe. Va genera un text coerent, aparent științific, plin de “argumente” și “dovezi” pentru această teorie. Mai mult, dacă același utilizator îi cere să genereze o imagine cu “marginea Pământului văzută din spațiu”, ChatGPT va produce o imagine realistă, chiar dacă complet falsă din punct de vedere științific. Brusc, “prostul satului” nu mai are doar o părere, are un articol “documentat” și chiar “fotografii” care îi susțin convingerile.
Inteligența Artificială ca mașină de spălat credibilitatea – Al doilea rol al Inteligenței Artificiale este poate și mai îngrijorător: transformarea conținutului fals în ceva care pare credibil. Aici intră în scenă exemplul care m-a determinat să scriu acest articol, fotografia cu presupusele “Cheile Nerei din județul Caraș-Severin” care în realitate înfățișa un canion elvețian, prelucrat grosolan cu instrumente de editare. Să reconstruim împreună această poveste. Cineva, posibil cu cele mai bune intenții, a găsit o fotografie spectaculoasă a unui canion elvețian. Fie prin ignoranță, fie prin dorința de a “promova frumusețile locale”, a prezentat-o drept Cheile Nerei din județul Caraș-Severin. Aici vine partea care m-a șocat cel mai tare: cei care au distribuit această imagine nu erau doar utilizatori anonimi sau persoane fără educație. Printre ei se numărau persoane pe care le cunosc, oameni cu studii superioare și poziții de responsabilitate în comunitate. Când am semnalat eroarea, în loc de recunoștință pentru corecție, am fost întâmpinat cu o repetare încăpățânată a erorii (adică au repostat imaginea cu și mai mare frenezie) și cu o predică despre cât de străine îmi sunt minunile naturii din România. Acest moment mi-a demonstrat perfect cum funcționează noua realitate: convingerea emoțională și narativul personal devin mai puternice decât realitatea faptică.
Inteligența Artificială a devenit amplificatorul care transformă ignoranța individuală în dezinformare industrializată, oferind platforma ideală pentru răspândirea prostiei, și instrumentul perfect pentru producția ei în masă. Tehnologia, oricât de sofisticată, nu funcționează în gol. Algoritmii și modelele de limbaj nu au inventat credulitatea umană, doar au găsit cum să o exploateze la scară industrială. Pentru a înțelege de ce aceste instrumente sunt atât de eficiente, trebuie să privim dincolo de ecrane, spre mecanismele care ne fac vulnerabili.
Mecanismele din spatele fenomenului – De ce prinde?
După ce am văzut cum funcționează mecanismele tehnice ale acestui fenomen, m-am întrebat: de ce prinde atât de bine?Ce anume îi face pe unii să distribuie cu entuziasm poza falsă cu Cheile Nerei, în timp ce alții verifică automat sursa înainte de a da share? Am găsit răspunsul în trei mecanisme care, combinate, creează terenul perfect pentru proliferarea dezinformării.
1. Biasul de confirmare, sau când căutăm doar ce ne convine – Încep cu cel mai puternic dintre aceste mecanisme. Biasul de confirmare este tendința naturală a creierului uman de a căuta, interpreta și reține doar acele informații care ne confirmă credințele preexistente. Sunt convins că o anumită plantă medicinală vindecă toate bolile, iar atunci când caut informații pe internet, creierul meu nu caută obiectiv, toate dovezile disponibile, ci caută, interpretează și reține doar acele informații care îmi confirmă ceea ce eu cred deja. Voi citi cu atenție articolele care laudă planta, voi memora testimonialele pozitive, și voi găsi explicații pentru orice studiu stiințific care o contrazice. Studiul care arată că planta nu are efect? “Ah, dar a fost finanțat de companiile farmaceutice!”Medicul care îmi spune că nu există dovezi? “El nu înțelege medicina naturistă!” Acest proces nu este deliberat sau rău intenționat, este modul natural în care funcționează creierul uman. Aici intră în scenă Inteligența Artificială, instrumentul perfect pentru a ne servi biasurile la comandă. Vreau un text despre virtuțile acestei plante? ChatGPT mi-l livrează prompt, fără să se încurce cu contra-argumente. Vreau o imagine care să „dovedească” efectele ei? Gata, e a mea. Dintr-odată, biasul meu de confirmare nu mai e constrâns de informațiile pe care le găsesc din întâmplare, pot fabrica pe loc „dovezi” pentru orice îmi place să cred.
2. Efectul Dunning-Kruger, sau cu cât știi mai puțin, cu atât ești mai sigur – Al doilea mecanism este poate cel mai frustrant pentru cei care încearcă să combată dezinformarea. Efectul Dunning-Kruger descrie fenomenul prin care persoanele cu competențe reduse într-un domeniu își supraestimează dramatic cunoștințele. Cu alte cuvinte, cu cât știi mai puțin despre ceva, cu atât ești mai convins că știi totul. În cazul pozei cu Cheile Nerei, cei care au distribuit-o cu cea mai mare convingere au fost exact cei care știau cel mai puțin despre geografia României, despre editarea fotografiilor sau despre verificarea surselor. Tocmai lipsa instrumentelor cognitive necesare pentru a identifica falsul îi făcea să fie complet siguri de judecata lor. Inteligența Artificială amplifică acest efect. Dacă înainte cineva cu cunoștințe limitate în medicină se limita să își exprime părerile în cercuri restrânse, acum îi poate cere lui ChatGPT să îi producă un „studiu medical” care să pară credibil. Rezultatul este o avalanșă de conținut aparent autoritar și documentat, produs de persoane care nu înțeleg nici măcar conceptele de bază ale domeniului despre care vorbesc.
3. Descărcarea frustrărilor, sau când falsul devine armă emoțională – Al treilea mecanism este cel mai complexși, din perspectiva mea, cel mai legat de contextul social actual. Multe dintre persoanele care creează și distribuie conținut fals nu o fac din răutate pură, ci dintr-o nevoie profundă de a-și descărca frustrările acumulate. Mulți oameni se simt neputincioși în fața unor forțe care le depășesc controlul, politică, economie, schimbări tehnologice rapide, pandemii, etc. Sistemele în care au avut încredere, educația, guvernul, media tradițională, le-au dezamăgit așteptările în diverse momente, iar în acest context, crearea și distribuirea de “adevăruri alternative” le oferă un sentiment de putere și control. Când cineva distribuie o teorie conspirativă sau o imagine falsă, el nu transmite numai o informație, ci un mesaj mult mai personal: “Eu știu ceva pe care voi nu îl știți. Eu am acces la adevăruri ascunse pe care sistemul încearcă să vi le ascundă. Eu sunt mai deștept decât credeți.” Este o formă de răzbunare intelectuală împotriva unei lumi care i-a făcut să se simtă insignifianți. Inteligența Artificială a devenit instrumentul perfect pentru această răzbunare. Nu mai trebuie să se bazeze pe teorii conspiraționiste, preluate de pe site-uri dubioase. Pot produce propriile “dovezi”, pot crea propriile “studii”, pot genera propriile “fotografii” care să susțină narativul lor. Sentimentul de putere devine copleșitor.
Înțelegând aceste trei mecanisme, Biasul de confirmare, Efectul Dunning-Kruger și Descărcarea frustrărilor, putem înțelege de ce fenomenul prinde atât de bine și de ce este atât de greu de combătut. Nu avem de-a face cu o problemă tehnică, ci cu una profund umană, și tocmai din această înțelegere trebuie să pornească soluțiile noastre.
Cum ne apărăm de „Idiotul Amplificat”?
Vă invit să privim, împreună, drumul parcurs împreună până acum. Am început cu “prostul satului” care își exprima părerile la crâșmă, în fața a trei-patru localnici care îl cunoșteau și îl temperau. Am trecut prin era social media, când acest “prost” a descoperit că nu este singur și a format alianțe globale cu alți oameni la fel de convinși de propriile certitudini, și am ajuns în era Inteligenței Artificiale, când același personaj nu mai are doar păreri, are un partener digital care îi validează aberațiile și îi produce, chiar “dovezi” pentru ele. Rezultatul? “Idiotul amplificat”, o versiune industrializată a ignoranței umane, echipată cu instrumente de producție în masă a dezinformării și cu acces la miliarde de potențiali consumatori. Nu este o evoluție pe care să o salut cu entuziasm, dar să nu cădem în pesimism, pentru că înțelegând mecanismele acestui fenomen, putem dezvolta și strategii eficiente de apărare. M-am gândit la un sistem în cinci pași de “imunitate digitală” care să ne protejeze pe care vi-l prezint, atât pentru a-l valida cât și pentru a-l contesta, cu argumente, pentru a-l putea îmbunătăți.
1. Verifică înainte de a distribui – regula de aur a erei digitale…
Încep cu cea mai simplă, dar poate cea mai puternică armă împotriva dezinformării: verificarea. Înainte de a distribui orice conținut care pare spectaculos, surprinzător sau emoționant, acordați-vă, măcar, 30 de secunde pentru o verificare rapidă. Pentru imagini, procesul este aproape banal de simplu. Deschideți Google Images sau Google Lens pe telefon, încărcați fotografia și vedeți rezultatele. În cazul pozei false cu Cheile Nerei, această verificare ar fi durat, exact, 10 secunde și ar fi arătat clar că imaginea provine dintr-un canion elvețian, 10 secunde care ar fi putut preveni răspândirea unei dezinformări către mii de persoane. Pentru texte și articole, verificați sursa. Cine este autorul? Are credibilitate în domeniul respectiv? Publicația unde apare articolul este recunoscută pentru acuratețea informațiilor? Dacă nu găsiți răspunsuri clare la aceste întrebări, tratați informația cu scepticism maxim. Verificarea nu este un act de altruism, este, în primul rând, un act de autoprotecție. Ori de câte ori răspândim ceva fals, nu poluăm doar spațiul informațional comun; ne diminuăm propria credibilitate. Reputația se construiește în ani și se distruge cu un singur click. Ori de câte ori răspândim ceva fals, diminuăm încrederea pe care ceilalți o au în judecata noastră, iar în zilele noastre, reputația se construiește în ani și se poate distruge cu un click greșit.
2. Întreabă-te: “Cine beneficiază?”
A doua strategie este mai subtilă, dar extrem de puternică. Înainte de a crede sau distribui o informație, pune-ți întrebarea: “Cine are de câștigat din răspândirea acestei informații?” Această întrebare dezvăluie adesea motivațiile ascunse din spatele conținutului dubios. Să ne gândim la teoriile conspiraționiste despre vaccinuri. Cine beneficiază dacă oamenii nu se vaccinează? Cu certitudine nu sistemul medical sau autoritățile de sănătate publică, care se confruntă cu epidemii evitabile, în schimb, beneficiază cei care vând “alternative naturiste” scumpe sau cei care construiesc audiențe prin alimentarea fricii și desconfiării. Această întrebare, “Cine beneficiază?”, funcționează ca un detector de motive ascunse și ne ajută să evaluăm obiectivitatea unei informații.
3. Fii sceptic față de conținutul spectaculos
Al treilea principiu ghid este acela de a fi sceptic față de informațiile care par prea frumoase, prea șocante sau prea perfecte pentru a fi adevărate. De obicei, nu sunt. Creierul uman este atras natural de extreme, de cele mai frumoase peisaje, cele mai șocante povești, sau cele mai perfecte povești de succes. Din păcate, tocmai această atracție ne face vulnerabili la manipulare. Când vedeți o imagine spectaculoasă prezentată ca fiind din România și care arată mai frumos decât orice peisaj pe care l-ați văzut vreodată, întrebați-vă, de ce nu ați auzit de acest loc până acum. Când citiți despre o metodă revolutionară de slăbit pe care “medicii nu vor să o aflii”, întrebați-vă de ce medicii și-ar ascunde intenționat o metodă care ar putea ajuta milioane de oameni. Scepticismul constructiv nu înseamnă să nu credeți nimic, ci să cereți dovezi proporționale cu extraordinarul afirmațiilor. Cu cât o afirmație este mai ieșită din comun, cu atât dovezile care o susțin trebuie să fie mai solide și mai verificabile.
4. Învață să folosești Inteligența Artificială în mod critic
Dacă există o lecție pe care trebuie să o învățăm înainte de a fi prea târziu, aceasta este următoarea: schimbați-vă radical felul în care vă raportați la Inteligența Artificială. Nu o tratați ca pe un oracol infailibil, deținător al adevărului absolut, tratați-o ca pe un asistent competent, dar care necesită supraveghere permanentă. Când apelați la ChatGPT, de exemplu, pentru informații, nu căutați doar confirmarea propriilor prejudecăți. Cereți argumente pro și contra. Cereți surse verificabile. Întrebați care sunt limitele a ceea ce vi se prezintă. În loc să întrebați: „De ce sunt vaccinurile periculoase?”, întrebați „Care sunt argumentele pentru și împotriva vaccinării, susținute de studii științifice evaluate de experți?” Inteligența Artificială poate deveni un instrument remarcabil pentru educație și cercetare, dar numai dacă îl folosim cu discernământ. Ne poate ajuta să explorăm complexitatea unei probleme, să înțelegem perspective diferite, să formulăm întrebările corecte, însă responsabilitatea finală pentru verificarea informațiilor ne aparține întotdeauna.
5. Responsabilitatea fiecăruia dintre noi
Voi încheia cu o idee care ar trebui să fie evidentă, dar pe care am reușit cumva să o ignorăm. În zilele noastre, abilitatea de a găsi informație nu mai este așa de relevantă, informația este peste tot, instantanee și gratuită, în foarte multe cazuri. Ceea ce contează acum este capacitatea de a valida informația, de a o pune în context și de a-i înțelege limitele și intențiile ascunse.
Fiecare dintre noi avem, sau ar trebui să avem, o responsabilitate față de spațiul informațional pe care îl utilizăm. A distribui o minciună nu este o greșeală, oricât ne-am complăcea în această iluzie. Este un act de poluare a bunului comun, o contribuție activă la edificarea a ceea ce am numit „paradigma idiotului global”. Responsabilitate aceasta vine la pachet cu o oportunitate fără precedent. Pentru prima dată în istorie, oricare dintre noi poate verifica aproape orice afirmație în câteva minute. Avem la dispoziție instrumentele pentru a deveni propriii noștri verificatori de fapte, propriii noștri editori, propriii noștri curatori ai informației de calitate, dar întrebarea este dacă vom folosi aceste instrumente.
Să nu permitem ca „idiotul amplificat” să ne dicteze realitatea; să construim, cu bună știință, o societate care prețuiește adevărul mai mult decât confortul propriilor prejudecăți, care pune întrebări înainte de a răspândi răspunsuri și care a înțeles, în sfârșit, că în era abundenței informaționale, discernământul a devenit cea mai rară și mai prețioasă resursă.
Alegerea, în ultimă instanță, ne aparține. Putem continua să fim complici pasivi la răspândirea prostiei industrializate, dând click și share la orice ne flatează instinctele, spunându-ne că „nu e treaba noastră” să verificăm ce distribuim, sau putem decide să refuzăm această complicitate și să ne asumăm responsabilitatea.
Mulți vor spune: „Dar eu singur nu pot schimba nimic.” Este exact genul de scuză confortabilă care ne-a adus aici. Adevărul este că spațiul informațional nu este poluat de forțe abstracte și malefice, este poluat de milioane de oameni obișnuiți care, individual, au decis că verificarea e prea obositoare. Dacă problema a fost creată de decizii individuale, tot prin decizii individuale poate fi reparată.
Nu am iluzii: nu vom eradica dezinformarea, dar putem construi un sistem imunitar colectiv suficient de bun încât minciunile să nu mai devină virale, iar acest sistem începe cu fiecare dintre noi, cu fiecare postare pe care alegem să nu o distribuim orbește. Eu mi-am făcut alegerea. Voi?!!
Impresiile voastre pozitive, sau negative, și recomandările pentru acest subiect, contează. Vă invit la dialog!