Oricât de frumos ar suna promisiunea unui viitor luminos modelat de AI, sunt multe întunecimi între lucrurile despre care se vorbește în șoaptă când ne referim la tehnologie.
:contrast(8):quality(75)/https://www.elle.ro/wp-content/uploads/2025/10/unnamed.jpg)
E o poveste de când lumea. Nu chiar, dar o poveste care a ajuns poate cea mai celebră din istoria gândirii occidentale, pe care o învățăm la școală, care a fost interpretată în fel și chip și care spune încă multe despre felul în care ne reprezentăm cunoașterea. Și, schematic, sună cam așa. În adâncul unei peșteri se află un grup de oameni. Singurul lor contact cu lumea de afară este prin intermediul unor umbre pe care le văd proiectate pe pereții peșterii. Umbrele sunt făcute de alți oameni care trec prin fața unui foc, purtând cu ei felurite obiecte și scoțând varii sunete. Așa arată lumea celor din interior și doar așa și-o pot imagina. Până când unul dintre ei este scos afară. Mai întâi, ochii lui, obișnuiți cu negura adâncurilor, au nevoie să se ajusteze. Mai târziu, descoperă lumea așa cum e și înțelege inclusiv felul în care se formează percepția despre realitate a celor din peșteră. Și încă mai târziu e nevoit să se întoarcă de unde a plecat. Ajuns înapoi, încearcă să le povestească tovarășilor despre ce a văzut la suprafață. Nu doar că nu e crezut, dar e considerat periculos.
Alegoria aceasta, adică mitul peșterii, așa cum l-a așezat în cuvinte Platon cu vreo 400 de ani înaintea erei noastre în Republica, se prea poate să fie o poveste despre Socrate, care de altfel e personajul principal al scrierii și care-și găsise sfârșitul pentru că îndrăznise să-și mențină poziția privind spunerea adevărului, chiar sau mai ales dacă acesta nu era confortabil sau acceptat. Povestea e parte dintr-o lucrare mai amplă care vorbește despre ideea de justiție, despre cum am putea construi o lume în care putem să trăim toți, despre condiția umană. Dar în această parte a ei vorbește despre cum se formează cunoașterea; iar pentru Platon aceasta pornea de la niște forme ideale, care există independent de noi și la care avem acces prin intermediul unor copii imperfecte.
Același gen de idee e reflectată în teoria lingvistului, filosofului și activistului Noam Chomsky privind achiziția limbajului. Gramatica universală, crede el, este o structură înnăscută care ne permite să învățăm să vorbim în orice limbă. Acesta este motivul pentru care, de exemplu, un copil de doi ani, cu foarte puține informații la dispoziție, va reuși să înțeleagă intim structura unei limbi, felul în care ea funcționează, indiferent de regulile care țin de sintaxă, de semantică, de vocabular sau de orice altceva am putea să deprindem voit mai târziu. Ceva fundamental se află în noi, probabil undeva în creier – lucru pentru care nu putem găsi dovezi de netăgăduit, dat fiind faptul că nu putem, din considerente etice, să realizăm pe copii experimente care să ne permită să vedem exact cum funcționează mintea umană.
Dar teoriile lui Chomsky, în special cele legate de structurile sintactice, au deschis multiple căi în alte domenii de studiu, inclusiv în științele cogniției, dar și în lucruri care țin de principiile de funcționare ale computerelor și foarte mulți cercetători și-au pornit sau bazat studiile pe ideile sale. FORTRAN, de pildă, un limbaj utilizat la scară largă, a fost creditat de creatorul său ca fiind inspirat de Chomsky, iar Donald Knuth, cel care a lansat o adevărată revoluție în domeniul algoritmilor, s-a declarat și el recunoscător. Și, cum era de așteptat, teoriile lui și-au aruncat umbra (sau lumina, după caz) și asupra domeniului ce urma să fie numit mai târziu inteligență artificială, machine learning sau large language models.
Și asta pentru că limbajul a fost dintotdeauna asociat cu felul în care gândim. Până la urmă, deși alte animale gândesc, numai oamenii au dezvoltat un limbaj atât de complex prin care să poată să exprime multe dintre lucrurile subtile care se petrec în propriile minți într-un mod care să fie inteligibil altor persoane. Și, într-un sens sau altul, asta face azi cel puțin o parte a ceea ce numim inteligență artificială: redă secvențe de cuvinte care au sens pentru noi, și care în multe cazuri au ajuns să ne ajute.
Dar teoriile lui Chomsky, oricât de fascinante, ajung la o concluzie simplă. Este aceeași la care a ajuns și Alan Turing atunci când a propus celebrul său test: poate o mașină să demonstreze comportament inteligent, adică să gândească? Ca și Turing, care a imaginat precursorul a ceea ce azi numim computer, și Chomsky răspunde similar: întrebarea este prost pusă. Atâta vreme cât nu știm mecanismele din spatele gândirii umane, în mod cert nu o putem replica, deci în cazul oricărei mașini, oricărei așa-zise inteligențe artificiale, oricât de avansată ar fi ea, nu poate fi vorba la propriu despre inteligență.
Geoffrey Hinton, însă, co-câștigătorul de anul trecut al premiului Nobel pentru fizică, computer scientist care a lucrat multă vreme pentru Google, are o altă părere. Nu doar o altă părere, ci chiar consideră stupide teoriile lui Chomsky privind limbajul. Acesta crede că felul în care gândim nu se bazează pe logică sau pe vreo invizibilă structură internă pe care nu o putem descifra sau demonstra, ci pur și simplu pe rețele neuronale și pe impulsurile dintre acești neuroni, pe care le-a și replicat, alături de alții, în ceva care se cheamă backpropagation theory, reușind în cele din urmă să creeze large language models incipiente, pe care se bazează cele avansate, de astăzi. El consideră că nu logica și rațiunea sunt lucrurile care ar diferenția inteligența umană de alte tipuri, ci pur și simplu învățarea. Iar inteligența artificială, cu capacitatea ei teoretic infinită de a învăța date, informații, este deci o inteligență în toată regula.
Și nu doar o simplă inteligență precum cea umană. Dat fiind că copii ale unui program (căci asta e, până la urmă, inteligența artificială) pot să acumuleze tot ce e cunoscut în câte un domeniu, iar apoi să facă schimb de informații între ele, așa se poate naște o super-inteligență care, susține Hinton, are și ceva care seamănă cu o conștiință (sau conștiență de sine) umană. Cum explică el asta? Ei bine, prin faptul că un AI poate să refuze să termine rularea unui program la comandă, pentru că nu a atins încă scopul final pentru care a fost programat. Așa că acesta va refuza, ba chiar va minți doar ca să își ducă până la capăt misiunea inițială.
Asta, spune Hinton, face AI-ul potențial foarte periculos, ba chiar îl duce în poziția de a amenința însăși existența oamenilor. Exemplul pe care îl dă cu o anumită plăcere profesorul este cel care se referă la găini și oameni: dacă vrem să vedem ce se întâmplă când nu mai suntem noi în vârful piramidei, echipați cu cea mai mare inteligență, ar trebui să vedem ce se întâmplă cu puii dintr-o fermă, pentru că soarta lor actuală seamănă cu viitorul nostru. Desigur, asta înseamnă și o conștiență și o dorință de putere pe care mașinile încă nu le-au demonstrat, dar Hinton nu pare să vadă aceste chestiuni dintr-o perspectivă neapărat filosofică, ci dintr-una pragmatică, care privește ce e posibil în scenariul în care funcționăm acum.
Filosofic vorbind, însă, întrebarea e mai interesantă. Pentru că, oricâte sugestii nimerite de cumpărături ți-ar da AI-ul tău preferat, oricât ți-ar cunoaște un algoritm powered by AI gusturile în materie de muzică sau filme, oricât de util ți-ar fi ca să scrii un email complicat sau să rezumi o carte, și oricât ar putea să nimerească următorul cuvânt dintr-o secvență sau o frază, asta nu e neapărat ceea ce putem numi inteligență.
Și poate nimic altceva nu definește mai bine inteligența decât capacitatea de a crea ceva nou. Firește, ca și în cazul inteligențelor artificiale, și noi clădim, creăm pe un fundament. Nu există o inteligență nativă care să demonstreze creativitate pe baza a nimic, oricând va exista un cumul de informații care să stea la baza a ceva nou. Dar ceea ce numim inteligență sau creativitate umană se bazează tocmai pe cât de surprinzătoare sunt conexiunile pe care le face între lucruri care există deja.
Să luăm, de pildă, cazul muzicii. Chiar și label-uri locale lucrează acum cu AI, atât pentru compoziție, cât și pentru a genera versuri sau voci. Astfel apar piese noi mai rapid decât le putem asculta, lansate aproape simultan în mai multe limbi, care au succes. Prin contrast, un muzician în carne și oase va avea nevoie de timp – uneori foarte mulți ani – ca să învețe meșteșugul, și apoi încă și mai mult ca să facă acele conexiuni care îi fac muzica atât de relatable. Iar dacă o artistă ca Taylor Swift, de pildă, face o muzică atât de generică încât pare că ar putut fi creată de oricine, există în contrapartidă un Stravinski sau Bach, ale căror compoziții să traverseze timpurile, sau, mai recent, să zicem cineva ca George Michael, un compozitor, textier și vocalist al cărui perfecționism era arhicunoscut și chiar temut, devenit un soi de enciclopedie a mai multor genuri. Și exemplul lui nu e pus aleator aici (sau doar pentru că e un artist pentru care am enorm respect), ci pentru că acesta a zis că și-ar dori ca oamenii să-și amintească de el ca de un compozitor bun și ca de o persoană care a avut ceva integritate.