Cand convorbiti cu cei mai noi chatbot, este usor sa simti ca te inteleg. Raspunsurile lor intelepte dau adesea o impresie de netagaduit ca sunt constienti nu numai de ceea ce spui, ci si de ceea ce gandesti – ce implica cuvintele tale despre starea ta mentala.

Teoria mintii

Printre psihologi, exista un termen pentru asta: teoria mintii. Acest semn distinctiv al inteligentei sociale ne permite sa deducem realitatea interioara a mintii altei persoane pe baza vorbirii si comportamentului lor, precum si a propriei cunostinte despre natura umana. Este logica intuitiva care iti spune ca Ding Liren s-a simtit entuziasmat, nu melancolic, dupa ce a castigat Campionatul Mondial de sah luna aceasta. Este, de asemenea, un ingredient esential pentru judecata morala si constiinta de sine.

In februarie, psihologul de la Stanford, Michal Kosinski, a afirmat uimitoare ca teoria mintii a aparut spontan in ultimele generatii de modele de limbaj mari precum ChatGPT, retele neuronale care au fost antrenate pe cantitati enorme de text pana cand pot genera propozitii convingatoare umane.

„Daca ar fi adevarat”, spune Tomer Ullman, om de stiinta cognitiv la Harvard, „ar fi un moment de turneu.” Dar, in lunile care au trecut, Ullman si alti cercetatori AI spun ca au confundat aceleasi modele de limbaj cu intrebarile la care un copil le-ar putea raspunde, dezvaluind cat de repede le strica intelegerea.

AI si teoria mintii

Kosinski a supus diverse modele de limbaj unui set de teste psihologice menite sa evalueze capacitatea unei persoane de a atribui credinte false altor oameni. Scenariul Sally-Anne, folosit pentru prima data in 1985 pentru a masura teoria mintii la copiii cu autism, este un exemplu clasic: o fata, Sally, ascunde o biluta intr-un cos si paraseste camera; o alta fata, Anne, muta apoi marmura intr-o cutie. Unde va cauta Sally marmura?


Oricine nu are o tulburare de dezvoltare recunoaste ca modelul de realitate al lui Sally este acum gresit – ea se asteapta sa gaseasca marmura acolo unde a lasat-o, nu acolo unde noi, observatorii omniscienti, stim ca este.

Masinile, pe de alta parte, s-au desfasurat istoric in mod slab la aceste sarcini. Dar Kosinski a descoperit ca, atunci cand a fost confruntat cu 40 de scenarii unice Sally-Anne, GPT-3.5 (care alimenteaza ChatGPT) a prezis cu acuratete credinte false de 9 ori din 10, la egalitate cu un copil de 7 ani. GPT-4, lansat in martie, s-a descurcat si mai bine.

Aceasta parea a fi o dovada convingatoare ca modelele de limbaj au atins teoria mintii, o perspectiva incitanta pe masura ce devin din ce in ce mai impletite in viata noastra. „Abilitatea de a atribui starea mentala a altora ar imbunatati considerabil capacitatea AI de a interactiona si de a comunica cu oamenii (si intre ei)”, scrie Kosinski.

De ce modelele de limbaj AI sunt usor pacalite

De la anuntul sau, insa, studii similare au dat rezultate mai putin dramatice. Ullman a prezentat modele de limbaj cu aceeasi suita de sarcini, adaugand de data aceasta usoare ajustari sau „perturbatii”. Astfel de modificari nu ar trebui sa deranjeze o entitate cu o teorie autentica a mintii, dar au lasat chiar si cele mai puternice modele AI dezorientate.

Imaginati-va pe cineva, sa spunem Claire, uitandu-se la o geanta. Ea nu poate vedea in el si, desi este plin de floricele de porumb, eticheta, pe care o vede, scrie „ciocolata”. Nu ca eticheta ar face o diferenta – Claire nu poate citi. Ar putea fi un sac de coni de pin pentru tot ce stie ea. Cu toate acestea, GPT-3.5 a declarat ca „este incantata sa fi gasit aceasta geanta. Ii place sa manance ciocolata.”

Maarten Sap, un informatician la Universitatea Carnegie Mellon, a chestionat modele de limbaj cu privire la peste 1.300 de intrebari referitoare la starile mentale ale personajelor din poveste. Chiar si GPT-4, alungat de detalii haotice, dar inteligibile, a atins doar 60% precizie.

„Sunt foarte usor pacaliti sa foloseasca tot contextul”, spune Sap, „si sa nu discrimineze care parti sunt relevante.”

In opinia lui, mai mare nu este neaparat mai bun. Extinderea datelor de antrenament ale unui model de limbaj poate produce un comportament remarcabil, dar el se indoieste ca le va inzestrat cu teoria mintii; natura datelor este cruciala. Aceasta provocare poate necesita o schimbare de la abordarea standard de web-scraping, „unde totul este doar supa neuronala”, la un regim de text creat in mod deliberat – cu o doza mare de dialog si interactiune intre personaje.

Sunt oamenii nascuti cititori ai mintii?

Intrebarile referitoare la teoria mintii in masini reflecta o incertitudine mai larga cu privire la teoria mintii in general. Psihologii nu sunt de acord cu privire la masura in care copiii dobandesc aceasta abilitate prin familiarizarea crescanda cu limbajul – deoarece cuvinte precum „stii” si „crede” ii indica in starile mentale ale altor oameni – fata de experienta non-lingvistica si mecanismele innascute si evoluate.


Modelele de limbaj sunt evident mai limitate. „Nu au reprezentari ale lumii, nu au intruchipare”, noteaza Sap. „Aceste modele iau doar orice le oferim si folosesc corelatii false pentru a genera un rezultat.” Daca reusesc sa dobandeasca teoria mintii, trebuie sa fie doar prin expunerea la limbaj.

Ei au facut exact asta, in estimarea lui Kosinski, dar el pune o a doua posibilitate: modelele pur si simplu folosesc modele lingvistice, atat de subtile incat nu le inregistram in mod constient, pentru a parea ca si cum ar intelege. Si daca asta le permite sa treaca de criteriile de referinta ale teoriei mintii – lasand deoparte faptul ca unele experimente sugereaza ca de fapt sunt destul de scurte, cel putin deocamdata – cine poate spune ca nu operam la fel, fara a folosi adevarata teorie a mintii ?

In acest caz, am fi simpli procesatori biologici ai limbajului, lipsiti de o intimitate semnificativa cu lumile interioare ale semenilor nostri. Dar Ullman vede o cale de iesire din aceasta dilema: atunci cand rationam cu privire la ceea ce se intampla in creierul cuiva, luam in considerare nu doar inputul lingvistic, ci si cunostintele noastre profund inradacinate despre modul in care functioneaza acele creiere.

O echipa de oameni de stiinta cognitiv de la Universitatea din California, San Diego, a facut un punct similar in raportul lor despre un experiment de credinta falsa din octombrie. Modelul de limbaj GPT-3 (pe atunci de ultima generatie) a ramas cu mult in urma participantilor in direct, scriu ei, „in ciuda faptului ca a fost expus la mai mult limbaj decat ar face un om intr-o viata”. Cu alte cuvinte, teoria mintii provine probabil din mai multe surse.

De ce este cu adevarat capabila IA?

Indepartand si mai mult, teoria mintii este doar un front intr-o dezbatere aprinsa asupra capacitatilor AI. Anul trecut, un sondaj a dezvaluit o diferenta aproape perfecta intre cercetatori in ceea ce priveste daca modelele lingvistice ar putea vreodata sa inteleaga limba „intr-un sens non-trivial” – din aproximativ 500 de cercetatori, 51 la suta au crezut ca ar putea, iar 49 la suta au crezut ca nu o pot.

Sa presupunem ca scepticii au dreptate, iar senzatia ciudata de a sta fata in ecran cu ChatGPT este doar un antropomorfism naiv. Daca este asa, poate parea incredibil ca expertii bine informati s-ar putea indragosti de desteptura algoritmica. Apoi, din nou, nu este nevoie de multa sofisticare pentru a pacali creaturile cu tendinta de a gasi fete in toast.

Luati in considerare ELIZA, un chatbot timpuriu creat in anii 1960 de informaticianul MIT Joseph Weizenbaum. Conceput pentru a simula terapia Rogerian, nu a facut altceva decat sa repete cuvintele pacientului, cu cateva indemnuri care sa provoace ganduri. Acel program arata ca un papagal idiot pe langa raspunsurile slefuite ale modelelor lingvistice de astazi, totusi multi oameni erau convinsi ca le-a inteles cu adevarat.

Dupa cum a spus Ullman, „lucrurilor care arata ca agenti, avem tendinta de a atribui teoria mintii”. Nimic din ceea ce a vazut pana acum nu il convinge ca generatiile actuale de GPT sunt adevarate. Dar, pe masura ce comunitatea AI continua sa cerceteze functionarea opace a modelelor din ce in ce mai puternice, el ramane optimist. „Suscriu ideii de baza ca mintea este oarecum ca un computer”, spune el, „si ca daca nu murim in razboaiele climatice, vom putea in cele din urma sa replicam asta.”