Dan Caragea: Petru o nouă paradigmă a competenței culturale

Cum transformă inteligența artificială raportul dintre autor, cultură și responsabilitatea intelectuală.

1.184

 

Neliniștea prezentului și iluzia ruinei

Articolul de față își propune să răspundă criticilor privind accesul la module IA și să traseze câteva direcții de explorare pragmatică a potențialului oferit de ChatGPT sau „Geppetto”, după  cum l-au botezat unii.

Ne aflăm, din nou, în fața acelui șablon istoric bine cunoscut, al înfruntării între tehnofili și tehnofobi, pentru care fiecare salt tehnologic în istoria culturii declanșează instantaneu reacții dominant-defensive: anxietate socială, panică simbolică, rejecții viscerale și profeții alarmante ale declinului iminent. Să rememorăm, desigur, unele din acuzațiile similare: tiparul era cu secole în urmă cel care ducea la pierderea memoriei, romanul cel care submina moravurile, presa cea care anihila gândirea profundă, iar internetul cel care distrugea capacitatea de concentrare.

Astăzi, pe scena fricii a urcat inteligența artificială, sub forma ei cea mai vizibilă și accesibilă – ChatGPT și sistemele similare. Acuzația majoră rămâne neschimbată în esență, dar își adaptează retorica la prezent: IA ar urma să ruineze cultura, să anuleze autoratul individual și să producă o masă amorfă de texte, poate „corecte” din punct de vedere formal, dar cu totul lipsite de spirit sau de substanță autentică.

Am să neg din capul locului această viziune catastrofică, susținând că ne confruntăm, dimpotrivă, cu un moment de cotitură, de schimbare de paradigmă. După cum tiparul a democratizat producțiile scriptice, purtându-ne în „Galaxia Guttenberg”, iar internetul a deschis accesul la informație și cunoaștere, inteligența artificială – prin modele precum ChatGPT sau Gemini – deschide o ușă care rămăsese până acum ferecată pentru cei care aspiră la exprimarea intelectuală, dar nu dispun de exercițiul cotidian îndelungat sau de formarea culturală clasică. 

Deconstrucția mitului „autorului” artificial

Pentru a depăși această panică, este crucial să înțelegem ce este și, mai ales, ce nu este chaturile IA. Soluțiile de acest gen nu sunt „motoare de căutare” clasice, ca Google sau Bing, și nici „autori” în sens uman.

ChatGPT (Generative Pre-trained Transformer) este, în esență, un model de inteligență artificială de tip „large language model” (LLM), o arhitectură neuronală capabilă să genereze texte coerente, pornind de la un context (IA bazată pe rețele neuronale este ca un creier de jucărie care învață prin imitarea modului în care funcționează creierul nostru, folosind o mulțime de straturi de ajutoare mici pentru a recunoaște tipare și a lua decizii).

Astfel, chatbot-ul este antrenat să înțeleagă și să genereze texte pe baza regularităților statistice ale limbajului uman, fiind prezentat ca o interfață de dialog și conversație. Modul său de funcționare este unul pur probabilistic, adică funcționează prin anticiparea celui mai plauzibil următor element lingvistic dintr-o secvență dată. Complexitatea și viteza acestei predicții statistice fac ca rezultatul să pară argumentativ, creativ sau reflexiv.

Am să explic în modul cel mai simplu posibil cum „gândește”. Dacă dăm IA secvența „Cerul este…”, modelul lingvistic calculează probabilitățile pentru miile de cuvinte posibile care ar putea urma. Apoi, alege cuvântul cu cea mai mare probabilitate, care în acest context, pe baza a miliarde de texte din antrenament, este „albastru”. Odată adăugat „albastru”, procesul se repetă pentru următorul cuvânt. Deși nu există o cifră exactă a „documentelor” individuale folosite, baza de cunoștințe a acestui sistem este echivalentul a sute de mii de biblioteci comprimate în parametrii rețelei sale neuronale.

Iată însă clarificarea esențială, pe care o repetă și o subliniază toți specialiștii: modelul nu simte, nu înțelege și nu are intenții în sens uman. Afirmația subliniază distincția fundamentală dintre inteligența artificială și conștiința umană:

  • Sistemul nu simte (lipsa conștiinței, emoțiilor), adică procesează textul la un nivel pur computațional. Poate genera fraze care exprimă emoții (de exemplu, „Sunt foarte trist”), deoarece a învățat din datele de antrenament cum arată limbajul legat de tristețe.
  • Sistemul nu înțelege (în sens semantic profund), altfel spus, modelul excelează la recunoașterea și reproducerea tiparelor statistice ale limbajului uman. „Înțelegerea” sa este una operațională, bazată pe probabilități matematice. Nu deține o înțelegere semantică profundă a lumii reale, a cauzalității sau a conceptelor abstracte, ci doar o reprezentare simbolică a acestora, învățată din texte.
  • Sistemul nu are intenții (lipsa agentivității), prin urmare nu are obiective proprii, motivații sau liber arbitru. Răspunsurile sale sunt declanșate de comanda utilizatorului și de obiectivul său de a prezice cel mai plauzibil următor token (cuvânt), conform programării sale. Intenția există la nivelul programatorilor săi (OpenAI) și al utilizatorului, nu la nivelul modelului în sine.

În esență este vorba despre limbaj, modelat probabilistic, pe baza unui corpus cultural uriaș, cuprinzând literatură, eseistică, articole științifice, dialoguri, diverse stiluri. El este, mai degrabă, o „oglindă”, un sistem care, pe baza unui imens corpus de texte, reconstituie forme de limbaj, structuri argumentative și tonuri stilistice. Nu trebuie să ne lăsăm păcăliți: așa cum am spus, modelul nu „înțelege” sensuri sau intenții, recombină doar statistici de limbaj.

În acest fel, asistentul digital devine un partener de lucru, nu doar tehnic, ci și cognitiv. 

Mutarea valorii de la formă la intenție

Disconfortul real, cel care justifică reacția polemică, provine din faptul că o mare parte din ceea ce numim „cultură” – eseul, critica, analiza, interpretarea – este, structural vorbind, limbaj organizat, iar atunci când limbajul este bine organizat, efectul de competență apare inevitabil.

Algoritmul nu creează sens, dar produce forme credibile, extrem de probabile de sens, iar acest lucru este cel care zdruncină întreaga ierarhie culturală veche de secole. Astăzi, calitatea nu mai este strict și exclusiv legată de experiența acumulată îndelung; ea poate fi accelerată, susținută și amplificată, prin dialog structurat cu modelul.

Se naște astfel obiecția severă: oricine poate scrie, iar a scrie magistral, care a fost întotdeauna o competență rară, nu mai este un privilegiu ca înainte de IA. Faptul că un instrument permite accesul extins la exprimare nu constituie un dezastru cultural, ci o redistribuire a puterii simbolice, în sensul lui Jean Baudrillard. Cultura nu este distrusă când se democratizează accesul, ci este, în mod benefic, forțată să-și reconsidere și să-și redefinească propriile criterii de valoare.

Un studiu recent (Herbold et al., 2024), care a comparat eseuri scrise de liceeni cu texte generate de ChatGPT, a demonstrat o realitate incomodă: textele „artificiale” au fost evaluate, în medie, ca fiind de o calitate superioară – sintactic coerente, cu diversitate lexicală și structuri argumentative clare. Acest fapt nu probează însă că IA este „mai inteligentă”; arată doar că forma discursivă se poate replica și că nu acolo trebuie să căutăm criteriul valorii culturale.

Aici se produce, de fapt, mutația fundamentală: într-o lume în care structura ideilor și claritatea argumentului sunt esențiale, competența fundamentală nu mai este cea acumulată îndelung, ci competența de a formula întrebările și de a baliza cerințele. 

Programul exigenței sporite: nu lene, ci discernământ

O altă obiecție des întâlnită susține că „textele vor fi fluente, dar superficiale”. Acest lucru este, desigur, posibil; însă limbajul fluent și superficial exista și înainte, cu singura diferență că acum superficialitatea poate fi elegant formulată.

Și tocmai aici apare câștigul ascuns al acestei noi paradigme: suntem forțați să devenim mai exigenți, nu mai leneși. Dacă forma nu mai garantează valoarea, atunci valoarea trebuie căutată în criterii infinit mai profunde și mai greu de falsificat: claritatea intenției, coerența conceptuală, onestitatea intelectuală și o raportare autentică la real.

Să demontăm, de asemenea, obiecția conform căreia „ChatGPT va înlocui gândirea”. Acesta este un sofism care confundă mijlocul cu scopul. Instrumentul LLM poate înlocui structura, reformula și accelera munca preliminară, dar nu poate substitui judecata. Algoritmul nu este capabil să decidă ce este relevant, ce este adevărat sau ce este important. Dacă utilizatorul alege să renunțe la aceste decizii fundamentale, problema este una exclusiv culturală, nu tehnologică.

În realitate, modelul produce o mutație mult mai radicală și mai incomodă pentru un status quo: democratizează performanța discursivă. O persoană cu idei valoroase, dar fără exercițiul stilistic sau formarea academică solidă, poate ajunge – prin dialogul cu modelul – la un text coerent, lizibil și credibil, text care anterior necesita un lung exercițiu (analiză, structurare, sinteză, redactare).

Programul nu înlocuiește expertiza, ci o simulează, o susține și o amplifică. Rezistența viscerală provine tocmai din această pierdere, și anume, scrierii profesioniste i s-a retras un obstacol artificial: monopolul asupra formei. Cultura a funcționat mult timp ca un sistem de acces controlat: cine stăpânea limbajul intra, cine nu, rămânea pe dinafară. Inteligența artificială sparge indiscutabil acest filtru. Valoarea se mută esențial de la a ști să produci un discurs la a ști ce să ceri, cum să orientezi și cum să judeci un discurs. Nu talentul dispare, ci privilegiul. 

Traducerea asistată: De la fluență la spirit

Am să mă mai refer la un alt aspect deloc neglijabil: performanțele modelelor generative în domeniul traducerii literare. Avem de-a face în momentul actual cu una dintre utilizările cu cel mai mare potențial, dar și cu unele limitări, care fac ca intervenția umană posterioară să rămână esențială, dar într-un număr rezonabil de contexte.

Traducerile de proză sau poezie cu versuri albe nu sunt „perfecte”, ci „competente”, în moduri surprinzătoare. Mai mult, putem instrui programul pe parcurs, sugerând substituiri, schimbarea stilului general (de exemplu, în stilul Anei Blandiana). Astfel, ca puncte forte menționez: acuratețea contextuală (superioară lui Google Translate sau DeepL), ajustarea structurii propozițiilor, fluența (evită traducerea-robot), obținerea de texte sintactic coerente și bine organizate, o reflectare a bazei sale masive de date de antrenament.

În ce constă revizia umană? Deși poate genera un text corect, algoritmul se luptă să capteze subtilitățile, tonul unic, ironia, umorul, sau conotațiile profunde specifice unui autor (Mateiu Caragiale, de exemplu). Traducerea literară necesită o revizie a „creativității” pe care IA o simulează, dar nu o posedă cu adevărat.

Tot așa, apar dificultăți în ceea ce privește adecvarea culturală și expresiile idiomatice: în ciuda progreselor, gestionarea referințelor culturale profund înrădăcinate sau a jocurilor de cuvinte complexe rămâne o provocare. Așa cum am testat, sistemul poate menține coerența generală, dar un traducător uman poate decide conștient să folosească un anumit registru arhaic sau un jargon specific pe tot parcursul unui roman pentru a crea un efect artistic, o intenție pe care IA nu o are.

Judecând cât se poate de obiectiv, acesta este un instrument de posteditare automată capabil să producă o primă „ciornă” impresionant de bună pentru un text literar. Cu toate acestea, pentru a atinge nivelul de excelență al unei opere traduse profesional, care necesită „suflet” și decizii artistice conștiente, este necesară expertiza unui traducător uman specializat. Oricum, munca acestuia este în mod semnificativ ușurată. 

Creația originală: ciorna rapidă versus vocea inconfundabilă

În sfârșit voi atinge și performanța la nivelul creației artistice originale. În testele pe care le-am făcut în ultimele două luni, pot dovedi că algoritmul poate menține firul narativ, poate dezvolta personaje (nu foarte complexe), poate construi intrigi pe baza instructajului nostru.

Este versatil din punct de vedere stilistic, se descurcă bine într-o serie de genuri (roman istoric, nuvele polițiste, literatură SF etc.), imitând stiluri de autori sau curente. Oferă o „ciornă” rapidă de la care se poate pleca, sporind complexitatea. Principalele limite țin de profunzimea emoțională, atingerea „vocii unice” și originalitatea scriitorilor umani.

Poezia modernă, care adesea mizează pe inovație lingvistică, ambiguitate, ritmuri neconvenționale și expresie subiectivă profundă, reprezintă o provocare mai mare pentru un model IA bazat pe probabilități statistice. Mi-a demonstrat că poate genera poezii cu structuri fixe, face jocuri de limbaj interesante, extrăgând asocieri neobișnuite din setul său vast de date, și se adaptează ușor la cerința de a evita rima și metrica tradițională, îmbrățișând stilul versului alb modern. Desigur sunt limitări privind intuiția poetică: un poet uman poate crea un limbaj nou sau poate da o perspectivă care redefinește genul.

Neîndoios, IA este un instrument extrem de performant, o realizare uluitoare, capabilă să genereze texte literare impresionante. Este un asistent redutabil pentru scriitori, ajutându-i să-și depășească blocajele și putând să genereze cantități impresionate de variante, de material brut. Cu toate acestea, în creația literară de vârf, care necesită profunzime existențială, inovație și o „voce” inconfundabilă, tehnologia rămâne, momentan, doar o „oglindă” extrem de sofisticată a creației umane. 

Miza reală: amplificatorul inteligenței

Reid Hoffman, unul dintre arhitecții ecosistemului digital contemporan, o formulează brutal: „Start using AI deeply. It is a huge intelligence amplifier.” Această afirmație nu este o invitație la abandon intelectual, ci un apel la o responsabilitate sporită.

Un amplificator funcționează direct proporțional cu sursa pe care o amplifică: dacă sursa este slabă, rezultatul va fi plin de „zgomote”; dacă sursa este bună, rezultatul poate fi excepțional. Puterea este imensă, dar și riscurile sunt pe măsură.

Dependența de IA poate deveni, pentru unii, un substitut al exercițiului intelectual, o iluzie de competență. În contextul unei munci culturale responsabile, trebuie să fim atenți nu doar la ce generăm cu ajutorul acestor asistenți digitali, ci, mai ales, la cum validăm, reinterpretăm și asumăm rezultatele.

Controlul uman trebuie menținut asupra sensului și valorii, întrucât tehnologia nu oferă autenticitate, nu rezolvă uitarea, nu reconstruiește identitatea, ci oferă doar material brut. Munca noastră culturală vine după aceea și constă în a prelucra, a adapta și a contextualiza acest material. Controlul ia relativ puțin timp, iar, în unele cazuri mai simple, intervenția umană e aproape nulă.

De ce merită, așadar, să integrăm aceste soluții chiar de pe acum? În primul rând, pentru că abordările în varii situații deschid porți către exprimarea celor care altminteri ar fi excluși din cercurile scriitoricești sau critice. În al doilea rând, pentru că, în contextul limitărilor de timp și resurse, modelul poate fi un instrument de eficiență culturală, fără a ne sacrifica integritatea. În fine, și cel mai important, pentru că experimentul, dialogul și revizuirea asistate pot deveni forme de progres intelectual.

Întrebarea reală, la care suntem chemați să răspundem, nu este dacă ChatGPT „va distruge cultura” – cultura nu este atât de fragilă. Întrebarea este dacă suntem dispuși să ne ridicăm nivelul de exigență, acum când forma nu mai reprezintă o garanție a valorii.

ChatGPT sau „Geppetto”, cum preferă unii să-l numească, nu este semnul unei apocalipse culturale. Este un test. Un test al spetitului nostru critic, al responsabilității intelectuale și al curajului de a renunța la vechile privilegii. Cultura asistată algoritmic nu este mai săracă prin definiție, dar poate deveni săracă dacă abandonăm discernământul și exigența.

În câteva vorbe, nu avem de ales între uman și artificial. Avem de ales doar între utilizare conștientă, îmbogățitoare, și capitulare critică. Aceasta este miza epocii noastre. Și ar fi o eroare de proporții să o ignorăm. 

Bibliografie minimă

An, T. (2025). AI as Cognitive Amplifier: Why Human Judgment Remains the Bottleneck. Medium. Disponibil online.

Hassan, F., et al. (2024). ChatGPT’s Expanding Horizons and Transformative Impact Across Domains: A Critical Review of Capabilities, Challenges, and Future Directions. MDPI, Computers, 14(9). Disponibil online.

Herbold, S., Hautli-Janisz, A., Heuer, U., Kikteva, Z., & Trautsch, A. (2023). AI, write an essay for me: A large-scale comparison of human-written versus ChatGPT-generated essays. ArXiv. Disponibil online.

Autor: Prof. Dan Caragea (Lisabona, Portugalia)
Publicat în: Occidentul Românesc

Nota redacției:

Dan Caragea este critic, eseist, publicist și traducător, cu o impresionantă activitate academică și editorială. Lusitanist de prestigiu, specialist în psihologie și lingvistică computațională, Dan Caragea este colaborator voluntar al publicației Occidentul Românesc încă din anul 2011.

Absolvent al Facultății de Limba și Literatura Română, cu specializare secundară în limba și literatura portugheză, este doctor în psihologie. Între 1978 și 1990, a fost profesor de limba română și asistent universitar la Facultatea de Limbi și Literaturi Străine din București, unde a predat limba portugheză. A semnat manuale de portugheză și a colaborat constant cu reviste culturale din România.

În perioada 1991–1993, a fost bursier al Institutului Camões din Lisabona, autor al unui manual de portugheză pentru străini și director al societății Cyberlex, coordonând versiunile portugheză și spaniolă ale celebrului program de analiză semantică Tropes. Între 2009 și 2015, a activat ca expert în cadrul UEFISCDI, contribuind la realizarea versiunii românești a programului Tropes și dezvoltând un software inovator pentru detectarea similitudinilor textuale (Semplag). În 2013, publică împreună cu Adrian Curaj, la Editura Academiei, volumul Analiza automată a discursului.

În 2017, coordonează, la Lisabona, un amplu album dedicat relațiilor culturale și diplomatice româno-portugheze, în calitate de coautor. În anii 2018–2019, activează ca expert al Institutului de Lingvistică „Iorgu Iordan – Al. Rosetti” din București, contribuind la implementarea proiectului Romtext. Este, de asemenea, colaborator al revistei culturale Leviatan.