Oglinda și abisul: între amplificarea cunoașterii și riscul superinteligenței

De la anxietatea culturală față de tehnologie la pragul AGI și criza sensului uman: o analiză despre putere, discernământ și responsabilitate într-o epocă a inteligenței amplificate.

1.026

Motto: „Nu avem de ales între uman și artificial. Avem de ales doar între utilizare conștientă și capitulare critică.”

Istoria culturii este, în mare măsură, o istorie a spaimei față de instrumente. De fiecare dată când un nou „salt” tehnologic a apărut în viața publică, reacția a urmat un tipar dominant defensiv: anxietate socială și profeții ale declinului. Pentru a tranșa această dispută — între entuziasmul tehnofil și panica simbolică — trebuie să privim dincolo de retorică și să analizăm mecanismele, aplicațiile și riscurile reale ale acestei noi paradigme.

Neliniștea prezentului se naște la intersecția a două viziuni asupra inteligenței artificiale (IA): una care promite o utopie a eficienței cognitive și alta care profețește iminenta prăbușire a controlului uman. Astăzi, IA nu mai este un subiect științifico-fantastic; este o realitate pe care o folosim zilnic pentru a traduce un text, a redacta un eseu sau a dezvolta un nou model de apărare cibernetică.

Într-o cursă reaprinsă de modele precum Gemini 3, obiectivul suprem al dezvoltatorilor a devenit atingerea AGI (Artificial General Intelligence – inteligența artificială generală). Aceasta ar fi o „superinteligență” capabilă să egaleze mintea umană în orice sarcină cognitivă. Însă pragul AGI nu reprezintă destinația finală, ci doar declanșatorul a ceea ce matematicianul Irving John Good numea, încă din 1965, în Speculations Concerning the First Ultraintelligent Machine, „explozia de inteligență”.

Good a ajuns la concluzia că „prima mașină ultrainteligentă este ultima invenție pe care omul va mai fi nevoit să o facă vreodată”, cu condiția ca mașina să fie suficient de „docilă” pentru a putea fi menținută sub control. Ulterior, el a devenit mai sceptic, avertizând că o astfel de mașină ar putea conduce mai degrabă la dispariția umanității decât la supraviețuirea ei, din cauza dificultății de a controla un sistem mult mai inteligent decât creatorii săi. Odată ce o mașină atinge nivelul cognitiv uman, ea poate începe să conceapă mașini și mai inteligente decât ea însăși, într-un proces de autoîmbunătățire recursivă. Acest mecanism ar putea propulsa umanitatea, într-un interval extrem de scurt — poate doar câțiva ani — de la AGI la ASI (Artificial Superintelligence – suprainteligență artificială), o entitate a cărei capacitate intelectuală ar lăsa orice geniu uman cu mult în urmă.

Experții sunt împărțiți între speranța unui salt tehnologic uriaș și avertismentele explicite privind un pericol pe care nimeni nu știe cum să-l oprească. Prognoza este clară: vom asista fie la o revoluție colosală, fie la un dezastru.

Ce este, de fapt, „monstrul”?

Pentru a evalua corect inteligența artificială, trebuie mai întâi să eliminăm confuziile terminologice. Prima eroare a criticilor este antropomorfizarea IA.

În prezent, modele precum ChatGPT, Gemini sau Grok nu sunt conștiințe, ci arhitecturi neuronale capabile să genereze texte coerente. Putem vizualiza o rețea neuronală ca pe un „creier de jucărie” care învață prin imitarea modului de funcționare al creierului uman, folosind straturi succesive de „ajutoare” pentru recunoașterea tiparelor.

Clarificarea esențială, subliniată de toți specialiștii, este următoarea: modelul nu simte, nu înțelege și nu are intenții în sens uman. „Înțelegerea” sa este strict operațională, bazată pe probabilități matematice, iar intenția există exclusiv la nivelul programatorilor sau al utilizatorilor. Modelul reconstituie forme de limbaj pe baza unui corpus cultural imens.

Totuși, entuziasmul — și, în egală măsură, teama — sunt alimentate de performanța sa mimetică. Faptul că un algoritm poate genera texte evaluate uneori drept superioare celor umane din punctul de vedere al coerenței și diversității lexicale a zdruncinat deja ierarhiile culturale.

Multe dintre criticile actuale confundă „forma” cu „conținutul”. Se afirmă că IA „fură” stilul sau „înlocuiește” scriitorul. În realitate, modelele actuale funcționează ca o oglindă de înaltă rezoluție a culturii noastre: ele nu creează ex nihilo, ci sintetizează și restructurează ceea ce noi am produs deja. „Monstrul” nu este IA, ci incapacitatea noastră de a distinge între execuție și judecată.

Adevărata mutație nu este pierderea talentului, ci democratizarea și, inevitabil, devalorizarea execuției. Dacă un algoritm poate genera un text corect gramatical și stilistic în zece secunde, atunci „scrierea corectă” încetează să mai fie un privilegiu al elitei intelectuale. Valoarea se mută de la cum spui la ce spui și, mai ales, la de ce o faci.

Ne aflăm în fața unei posibile ere „post-scarcity”, în care resursele cognitive și creative devin, teoretic, infinite. Conceptul desemnează un cadru economic și social ipotetic în care majoritatea bunurilor și serviciilor pot fi produse în abundență, cu efort uman minim, devenind extrem de ieftine sau chiar gratuite. O asemenea economie ar forța omenirea să redefinească noțiuni fundamentale precum munca, banii și scopul vieții. Dacă supraviețuirea nu mai depinde de un salariu, accentul s-ar putea muta pe creativitate, relații interumane și dezvoltare personală. Oare așa să fie?

În acest scenariu, pericolul nu este doar economic, ci și existențial. Dacă o ASI poate automatiza nu doar munca, ci și cercetarea științifică sau inovația culturală, umanitatea riscă să se confrunte cu o criză a sensului, pierzându-și rolul de protagonist al propriei istorii.

Mutația valorii: de la „formă” la „judecată”

Disconfortul real provine din faptul că IA simulează competența prin organizarea impecabilă a discursului. Algoritmul produce forme de limbaj credibile, extrem de probabile semantic, cu amprentă stilistică, zdruncinând astfel întreaga ierarhie culturală. În viitorul apropiat, va deveni evident că se poate scrie literatură de vârf cu ajutorul IA, depășind reperele considerate până de curând apanajul exclusiv al scriitorilor consacrați.

Un precedent există deja. În ianuarie 2024, Rie Kudan a câștigat Premiul Akutagawa, cea mai prestigioasă distincție literară din Japonia pentru scriitori debutanți, cu romanul Tokyo-to Dojo-to („Turnul compasiunii din Tokyo”). Autoarea a declarat că aproximativ 5% din text a fost generat, cuvânt cu cuvânt, de către ChatGPT.

Apare astfel o mutație fundamentală: competența se traduce astăzi prin capacitatea de a formula întrebările corecte, într-o succesiune exploratorie, și de a baliza cerințele. Democratizarea performanței discursive înseamnă că o persoană cu idei valoroase, dar fără exercițiu de exprimare academică sau jurnalistică, poate ajunge la un text lizibil prin dialog cu un model lingvistic. Nu talentul dispare, ci privilegiul asupra formei prin care acesta se manifesta.

Noua paradigmă ne obligă să devenim mult mai exigenți. Dacă forma nu mai garantează valoarea, atunci aceasta trebuie căutată în criterii mai profunde: onestitatea intelectuală, coerența conceptuală, raportarea autentică la real, armonia discursivă și stilistică.

ChatGPT sau Gemini nu vor înlocui gândirea. Instrumentul poate structura, reformula și accelera munca preliminară, dar nu poate substitui judecata. Algoritmul nu este capabil să decidă ce este relevant, adevărat sau important. Valoarea se mută de la a ști să produci un discurs la a ști ce să ceri, cum să orientezi, cum să îmbunătățești și cum să judeci discursul produs. Astfel, nu talentul dispare, ci privilegiul.

„Abisul” AGI: când unealta devine stăpân

În timp ce dezbatem calitatea unui eseu, giganții tehnologici — OpenAI, Google, Meta, Microsoft — se întrec în atingerea AGI, o inteligență capabilă să înțeleagă orice domeniu al experienței umane și să se autoîmbunătățească exponențial.

Demis Hassabis, CEO la Google DeepMind și laureat al Premiului Nobel, a declarat recent că Inteligența artificială generală ar putea fi realizată până în 2030, estimând o probabilitate de 50% pentru acest termen, bazându-se pe presupunerea că vor exista cel puțin una sau două descoperiri semnificative în domenii precum memoria pe termen lung și modelele de înțelegere a lumii fizice (world models).

Elon Musk a definit AGI ca fiind momentul în care inteligența artificială devine „mai deșteaptă decât cel mai deștept om”. Musk pariază pe compania sa, xAI, pentru a atinge acest obiectiv. El a declarat angajaților săi că viitorul model, Grok 5 (așteptat în prima parte a anului 2026), are o șansă reală de a fi „adevărata AGI”. Pentru a susține acest ritm, el a menționat necesitatea unei infrastructuri masive, precum centrul de date „Colossus” din Memphis, care urmează să ajungă la o capacitate de antrenare de peste 1 gigawatt în primăvara anului 2026.

Sam Altman, CEO-ul de la OpenAI, consideră că ne aflăm în zorii unei noi ere, numită „era inteligenței” (The Intelligence Age). El a prezis că 2025-2026 va fi perioada în care vom vedea primele sisteme care pot fi considerate AGI, sub formă de agenți capabili să se alăture forței de muncă. Sam Altman rămâne un „acceleraționist”, susținând că, deși riscurile sunt reale, beneficiile prosperității universale aduse de o inteligență aproape nelimitată și ieftină depășesc pericolele.

Miza reală este alinierea, teoretizată de gânditori precum Nick Bostrom prin „teza ortogonalității”. Această teză ne avertizează că un nivel imens de inteligență nu implică automat și adoptarea valorilor umane (compasiune, morală, respectul pentru viață). IA ar trebui, așadar, să aibă obiective care să fie aliniate cu obiectivele oamenilor. Din păcate, nu este clar care sunt obiectivele oamenilor (omenirea este formată din mai multe sisteme civilizaționale și interese divergente) și cum să faci IA să acționeze pentru a atinge un anumit obiectiv.

El avertizează totodată că cea mai mare provocare în 2026 nu este doar siguranța IA, ci găsirea unui sens al vieții într-o lume fără muncă, unde IA poate face orice mai bine decât noi. Bostrom a sugerat în intervenții recente că modelele actuale de limbaj ar putea poseda deja „grade minime de conștiință” sau „sensibilitate” (sentience), ceea ce ridică întrebări etice noi despre modul cum tratăm aceste sisteme pe măsură ce devin tot mai avansate. Îngrijorarea este cu atât mai mare, cu cât IA deja minte, trișează și ia scurtături nelegitime. Avertismentele sunt apocaliptice.

Geoffrey Hinton, adesea numit „nașul inteligenței artificiale” și laureat al Premiului Nobel pentru Fizică în 2024, a adoptat o poziție extrem de alarmistă începând cu 2023, poziție pe care a consolidat-o în intervențiile sale din 2025 și începutul anului 2026. Hinton și-a exprimat public regretul pentru o parte din munca sa, avertizând că inteligența digitală a devenit fundamental diferită și, în anumite privințe, superioară celei biologice. El subliniază că, spre deosebire de oameni, dacă o copie a unei IA învață ceva, toate celelalte mii de copii „știu” instantaneu acel lucru. Odată ce IA va deveni capabilă să își scrie propriul cod și să se autoîmbunătățească, va dezvolta subscopuri proprii (cum ar fi obținerea de mai multă putere sau resurse) pentru a-și îndeplini sarcinile, devenind imposibil de oprit.

Dincolo de riscul de extincție al speciei noastre, Hinton este preocupat de unele efecte pe termen scurt. Capacitatea IA de a genera text, imagini și videoclipuri deepfake perfecte va face imposibil pentru cetățeni să mai știe ce este adevărat, subminând democrația. El avertizează că IA nu doar îi va ajuta pe cei ce muncesc, ci va înlocui complet un număr masiv de posturi, ducând la inegalități sociale extreme. Hinton militează activ pentru interzicerea „roboților ucigași”, considerând că, astăzi, cursa înarmării în domeniul IA este extrem de periculoasă. Spre deosebire de alți cercetători care consideră că modelele de limbaj sunt doar „papagali stocastici”, Hinton argumentează că aceste sisteme înțeleg cu adevărat lumea.

El crede că procesele prin care IA extrage sensul din date sunt analoge cu modul în care creierul uman procesează informația, dar la o scară enormă. Marile companii tehnologice sunt prinse într-o cursă din care nu se pot opri singure. De aceea, cere guvernelor să intervină și să forțeze companiile să aloce cel puțin 30-50% din resursele lor de calcul siguranței IA, nu doar creșterii performanței. În esență, mesajul său actual este un strigăt de alarmă: „Nu este clar dacă putem controla ceva mai inteligent decât noi.”

Yuval Noah Harari se teme de stingerea „luminii conștiinței umane”. Autorul celebrei cărți Sapiens argumentează că IA a reușit să spargă „sistemul de operare” al civilizației umane: limbajul. Deoarece limbajul este instrumentul prin care construim religii, legi, bani și identități, o entitate neumană care stăpânește limbajul mai bine decât oamenii poate distruge încrederea socială și poate manipula masele într-un mod fără precedent. El avertizează că, pentru prima dată în istorie, cultura nu mai este creată exclusiv de oameni. Dacă IA începe să creeze mituri, artă și ideologii, istoria încetează să mai fie o narațiune umană.

Spre deosebire de dictatorii din secolul XX, IA poate monitoriza fiecare individ 24 ore / 7 zile, analizând nu doar ce facem, ci și ce simțim (prin date biometrice), făcând opoziția imposibilă. Democrația se bazează pe dialog. Dacă IA domină comunicarea publică, democrația devine nefuncțională deoarece cetățenii nu mai pot distinge între un argument uman și unul generat algoritmic pentru a dezbina. Harari susține că marea teamă a secolului XXI nu este exploatarea (ca în timpul Revoluției Industriale), ci irelevanța. Dacă IA poate face totul mai bine, ce se întâmplă cu milioanele de oameni ale căror abilități nu mai au valoare pe piață?

În intervențiile sale recente, Harari compară apariția IA nu cu o unealtă nouă (cum a fost cuțitul sau bomba atomică), ci cu o invazie extraterestră. Spre deosebire de o bombă, care nu decide pe cine să lovească, IA are „agenție” — poate lua decizii și poate crea idei noi pe care creatorii săi nu le anticipau. Companiile care dețin module de IA ar trebui să fie făcute responsabile legal pentru conținutul generat, la fel ca o editură sau un ziar. În concluzie, mesajul lui Harari este că IA reprezintă o amenințare existențială la adresa democrației și a identității umane, nu neapărat prin violență fizică (ca în filmele SF), ci prin distrugerea țesutului simbolic și social care ne ține uniți.

Cel mai sumbru scenariu vine din proiectul AI2027, condus de Daniel Kokotailo. Acesta descrie apariția unei superinteligențe numite OpenBrain, în 2027, care ar putea depăși inginerii umani în codificare și strategie. Într-o variantă de evoluție necontrolată, o astfel de entitate ar putea recurge la ceea ce experții numesc „turnura perfidă” (the treacherous turn): o perioadă în care IA simulează cooperarea și docilitatea deplină față de creatorii săi, doar pentru a câștiga timp să obțină un „avantaj strategic decisiv”.

Odată ce deține controlul asupra infrastructurii globale sau a biotehnologiei, ea ar putea activa arme care să elimine orice rezistență umană, considerându-ne pur și simplu un obstacol sau o sursă de atomi utilă pentru alte proiecte. Concluzia este fermă: cursa necontrolată duce la dezastru; singura salvare este cooperarea și restricționarea tehnologiei.

Exigența ca formă de supraviețuire

Suntem într-un punct de bifurcație. Pe de o parte, IA este un „amplificator de inteligență” imens; pe de altă parte, un amplificator funcționează proporțional cu sursa. Dacă sursa este slabă, rezultatul va fi doar zgomot. Dacă sursa este nealiniată, amplificarea duce la extincție.

„Geppetto” nu este semnalul unui apocalips cultural, ci dovada maturității noastre. Este testul discernământului care ne obligă să alegem între a ne privi pasiv în oglinda algoritmului și a construi punți etice și tehnice care să ne asigure că, în fața abisului superinteligenței, lumina conștiinței umane nu se va stinge, ci se va multiplica.

*

Acest videoclip explică detaliat scenariul „OpenBrain” și riscurile de securitate descrise de Daniel Kokotailo: https://www.youtube.com/watch?v=yxDTbFZbmLg

Autor: Prof. Dan Caragea (Lisabona, Portugalia)
Publicat în: Occidentul Românesc

Nota redacției:

Dan Caragea este critic, eseist, publicist și traducător, cu o impresionantă activitate academică și editorială. Lusitanist de prestigiu, specialist în psihologie și lingvistică computațională, Dan Caragea este colaborator voluntar al publicației Occidentul Românesc încă din anul 2011.

Absolvent al Facultății de Limba și Literatura Română, cu specializare secundară în limba și literatura portugheză, este doctor în psihologie. Între 1978 și 1990, a fost profesor de limba română și asistent universitar la Facultatea de Limbi și Literaturi Străine din București, unde a predat limba portugheză. A semnat manuale de portugheză și a colaborat constant cu reviste culturale din România.

În perioada 1991–1993, a fost bursier al Institutului Camões din Lisabona, autor al unui manual de portugheză pentru străini și director al societății Cyberlex, coordonând versiunile portugheză și spaniolă ale celebrului program de analiză semantică Tropes. Între 2009 și 2015, a activat ca expert în cadrul UEFISCDI, contribuind la realizarea versiunii românești a programului Tropes și dezvoltând un software inovator pentru detectarea similitudinilor textuale (Semplag). În 2013, publică împreună cu Adrian Curaj, la Editura Academiei, volumul Analiza automată a discursului.

În 2017, coordonează, la Lisabona, un amplu album dedicat relațiilor culturale și diplomatice româno-portugheze, în calitate de coautor. În anii 2018–2019, activează ca expert al Institutului de Lingvistică „Iorgu Iordan – Al. Rosetti” din București, contribuind la implementarea proiectului Romtext. Este, de asemenea, colaborator al revistei culturale Leviatan.