In iarna lui 1958, un psiholog in varsta de 30 de ani, pe nume Frank Rosenblatt, era in drum de la Universitatea Cornell catre Biroul de Cercetare Navala din Washington DC, cand s-a oprit pentru o cafea cu un jurnalist. Rosenblatt a dezvaluit o inventie remarcabila care, in primele zile ale computerului, a creat destula agitatie. A fost, a declarat el, „prima masina care este capabila sa aiba o idee originala”.

Creatia lui Rosenblatt a fost Perceptron, un program inspirat de neuronii umani care rula pe un computer de ultima generatie: un mainframe IBM de cinci tone de dimensiunea unui perete. Hraniti Perceptronului o gramada de carti perforate si ar putea invata sa distinga cele marcate in stanga de cele marcate in dreapta. Lasati deoparte pentru o clipa banalitatea sarcinii; masina a putut sa invete.

Rosenblatt a crezut ca este inceputul unei noi ere si, evident, New Yorkerul a fost de acord. „Ne pare primul rival serios al creierului uman”, a scris jurnalistul. Intrebat ce nu poate face Perceptronul, Rosenblatt a mentionat dragoste, speranta si disperare. „Natura umana, pe scurt”, a spus el. „Daca nu intelegem dorinta sexuala umana, de ce ar trebui sa ne asteptam ca o masina sa o faca?”

Perceptronul a fost prima retea neuronala, o versiune rudimentara a retelelor neuronale „profunde” profund mai complexe din spatele unei multe dintre inteligenta artificiala (AI) moderna.

Dar la aproape 70 de ani, inca nu exista un rival serios pentru creierul uman. „Ceea ce avem astazi sunt papagali artificiali”, spune profesorul Mark Girolami, om de stiinta la Institutul Alan Turing, din Londra. „Acesta in sine este un progres fantastic, ne va oferi instrumente grozave pentru binele umanitatii, dar sa nu fugim cu noi insine.”

Istoria AI, cel putin asa cum este scrisa astazi, nu duce lipsa de parinti. Multi au nascut aceiasi descendenti. Rosenblatt este uneori mentionat ca parintele invatarii profunde, un titlu impartasit cu alti trei barbati. Alan Turing, spargatorul de coduri din timpul razboiului de la Bletchley Park si fondatorul informaticii, este considerat un tata al AI. A fost unul dintre primii oameni care a luat in serios ideea ca computerele pot gandi.

Intr-un raport din 1948, Intelligent Machinery, Turing a studiat modul in care masinile pot imita comportamentul inteligent. O cale catre o „masina de gandire”, a gandit el, a fost inlocuirea pieselor unei persoane cu masini: camere pentru ochi, microfoane pentru urechi si „un fel de creier electronic”. Pentru a afla lucrurile de la sine, masina „ar trebui sa fie lasata sa cutreiere mediul rural”, a glumit Turing. „Pericolul pentru cetateanul obisnuit ar fi grav”, a mentionat el, respingand ideea ca fiind prea lenta si nepractica.

Dar multe dintre ideile lui Turing s-au blocat. Masinile ar putea invata la fel cum invata copiii, a spus el, cu ajutorul recompenselor si pedepselor. Unele masini s-ar putea modifica prin rescrierea propriului cod. Astazi, invatarea automata, recompensele si modificarile sunt concepte de baza in AI.

Ca mijloc de a marca progresul catre masinile de gandire, Turing a propus Jocul Imitatiei, cunoscut in mod obisnuit ca testul Turing, care se bazeaza pe daca un om poate discerne daca un set de schimburi scrise provine de la un om sau de la o masina.

Este un test ingenios, dar incercarile de a-l trece au alimentat o confuzie imensa. Intr-o exploatare recenta a sprancenelor, cercetatorii au sustinut ca au trecut testul cu un chatbot care pretindea ca este un ucrainean de 13 ani cu un cobai de companie care a strigat Oda bucuriei a lui Beethoven.

Turing a adus o alta contributie importanta la AI, care este adesea trecuta cu vederea, spune Girolami. O lucrare declasificata din vremea omului de stiinta la Bletchley Park dezvaluie modul in care acesta a folosit o metoda numita statistica bayesiana pentru a decoda mesajele criptate. Cuvant cu cuvant, Turing si echipa sa au folosit statisticile pentru a raspunde la intrebari precum: „Care este probabilitatea ca acest anumit cuvant german sa genereze acest set criptat de litere?”

O abordare bayesiana similara alimenteaza acum programele AI generative pentru a produce eseuri, opere de arta si imagini cu oameni care nu au existat niciodata. „A existat un intreg univers paralel de activitate privind statisticile bayesiene in ultimii 70 de ani, care a activat complet IA generativa pe care o vedem astazi si putem urmari asta pana la munca lui Turing privind criptarea”, spune Girolami.

Termenul „inteligenta artificiala” a aparut abia in 1955. John McCarthy, un informatician la Dartmouth College, din New Hampshire, a folosit expresia intr-o propunere pentru o scoala de vara. Era extrem de optimist cu privire la perspectivele de progres.

„Credem ca se poate face un progres semnificativ… daca un grup atent selectat de oameni de stiinta lucreaza impreuna pentru o vara”, a scris el.

„Aceasta este perioada postbelica”, spune dr. Jonnie Penn, profesor asociat de etica AI la Universitatea din Cambridge. „Guvernul SUA a inteles ca armele nucleare au castigat razboiul. Deci, stiinta si tehnologia nu ar fi putut fi la un nivel mai inalt.”

In acest caz, cei adunati au facut progrese neglijabile. Cu toate acestea, cercetatorii s-au aruncat intr-o epoca de aur a construirii de programe si senzori care au echipat computerele sa perceapa si sa raspunda la mediile lor, sa rezolve probleme si sa planifice sarcini si sa se confrunte cu limbajul uman.

Robotii computerizati executau comenzi facute intr-o engleza simpla pe monitoare cu tub catodic, in timp ce laboratoarele au demonstrat roboti care s-au rasturnat lovindu-se de birouri si dulapuri. Vorbind pentru revista Life in 1970, Marvin Minsky de la Institutul de Tehnologie din Massachusetts, o figura impresionanta in AI, a spus ca in trei pana la opt ani lumea va avea o masina cu inteligenta generala a unui om obisnuit. Ar putea sa citeasca Shakespeare, sa unge o masina, sa spuna glume, sa faca politica de birou si chiar sa se bata. In cateva luni, prin predarea in sine, puterile sale ar fi „incalculabile”.

Bula a izbucnit in anii 1970. In Marea Britanie, Sir James Lighthill, un matematician eminent, a scris un raport usturator despre progresul slab al AI, declansand reduceri imediate de finantare.

Reinvierea a venit cu un nou val de oameni de stiinta care au vazut cunostintele ca solutie la problemele AI.

Au urmarit sa codifice expertiza umana direct in computere. Cel mai ambitios – desi au fost folosite alte cuvinte – a fost Cyc. Era menita sa posede toate cunostintele pe care o persoana educata le folosea in viata de zi cu zi.

Asta a insemnat codificarea in lot, dar a convinge expertii sa explice modul in care au luat decizii – si codarea informatiilor intr-un computer – s-a dovedit a fi mult mai dificil decat si-au imaginat oamenii de stiinta.

Totusi, IA din secolul al XX-lea a avut succese notabile. In 1997, Deep Blue de la IBM l-a invins pe marele maestru de sah, Garry Kasparov. Concursul a facut titluri mondiale, Newsweek anuntand „Ultima rezistenta a creierului”.

In timpul unui joc, Deep Blue a scanat 200 m pozitii pe secunda si a privit cu aproape 80 de miscari inainte. Reamintind concursul, Kasparov a spus ca masina „juca ca un zeu”.

Matthew Jones, profesor de istorie la Universitatea Princeton si coautor al cartii din 2023, How Data Happened, spune: „A fost, intr-un anumit sens, o ultima suflare mare a unui mod mai traditional de AI”.

Problemele din lumea reala sunt mai dezordonate: regulile sunt neclare, lipsesc informatii. Un AI care joaca sah nu poate schimba sarcinile pentru a-ti planifica ziua, curata casa sau conduce o masina. „Sahul nu este cel mai bun punct de referinta pentru inteligenta artificiala”, spune profesorul Eleni Vasilaki, seful departamentului de invatare automata la Universitatea din Sheffield.

De la Deep Blue, cele mai atragatoare salturi din AI au venit dintr-o abordare complet diferita, una care se regaseste pana la Rosenblatt si Perceptronul sau de sortare a cardurilor. Retelele neuronale simple, cu un singur strat bazate pe Perceptron nu erau foarte utile: existau limite fundamentale pentru ceea ce puteau realiza. Dar cercetatorii stiau ca retelele neuronale cu mai multe straturi ar fi mult mai eficiente. Ceea ce i-a scos la indemana a fost lipsa puterii computerului si a simtului cum sa-i antreneze.

Descoperirea a avut loc in 1986, cand cercetatorii, inclusiv Geoffrey Hinton de la Universitatea Carnegie Mellon, au dezvoltat „backpropagarea” ca o modalitate de a preda retelele. In loc de „neuroni” unici sa comunice cu vecinii lor, straturi intregi ar putea acum sa vorbeasca intre ele.

Sa presupunem ca construiti o retea neuronala pentru a sorta imaginile cu pisoi din imaginile cu catei. Imaginea este alimentata si procesata de diferitele straturi ale retelei. Fiecare strat analizeaza diferite caracteristici, poate margini si contururi sau blana si fete, si trimite rezultate la stratul urmator. In stratul final, reteaua neuronala calculeaza probabilitatea ca imaginea sa fie o pisica sau un caine. Dar sa presupunem ca reteaua intelege gresit: Rover nu ar purta niciodata un clopotel la gat! Puteti calcula dimensiunea erorii si puteti lucra inapoi prin retea si puteti ajusta greutatile neuronilor – in esenta puterea conexiunilor retelei – pentru a reduce eroarea. Procesul se repeta iar si iar si asa invata reteaua.

Descoperirea a propulsat retelele neuronale inapoi in lumina reflectoarelor, dar din nou cercetatorii au fost zadarniciti de lipsa puterii de calcul si a datelor. Acest lucru s-a schimbat in anii 2000 cu procesoare mai puternice, in special unitati de procesare grafica pentru jocuri video si cantitati mari de date, datorita unui internet plin de cuvinte, imagini si sunet. O alta schimbare a avut loc in 2012, cand oamenii de stiinta au demonstrat ca construirea de retele neuronale „profunde” – cele cu multe straturi – este extrem de puternica. Hinton si altii au dezvaluit AlexNet, o retea cu opt straturi cu aproximativ 10.000 de neuroni, care a depasit opozitia in provocarea ImageNet, o competitie internationala care provoaca AI sa recunoasca imagini dintr-o baza de date de milioane.

„AlexNet a fost prima lectie in care scala conteaza cu adevarat”, spune profesorul Mirella Lapata, expert in procesarea limbajului natural la Universitatea din Edinburgh. „Oamenii obisnuiau sa creada ca daca am putea pune cunostintele pe care le cunoastem despre o sarcina intr-un computer, computerul ar fi capabil sa faca acea sarcina. Dar gandirea s-a schimbat. Calculul si scara sunt mult mai importante decat cunostintele umane.”

Dupa AlexNet, realizarile au venit groase si repede. Google DeepMind, fondat in 2010 cu misiunea de a „rezolva inteligenta”, a dezvaluit un algoritm care a invatat sa joace jocurile clasice Atari de la zero. A descoperit, prin incercare si eroare, cum sa triumfe la Breakout, spargand un canal printr-o parte a peretelui si trimitand mingea in spatiul din spate. Un alt algoritm DeepMind, AlphaGo, l-a invins pe campionul Go Lee Sedol la jocul de masa chinezesc. Firma a lansat de atunci AlphaFold. Dupa ce a invatat cum se leaga formele proteinelor cu componenta lor chimica, a prezis structurile 3D pentru 200 m mai mult, reprezentand aproape fiecare proteina cunoscuta de stiinta. Structurile conduc acum un nou val de stiinta medicala.

Titluri copioase au aparut din revolutia invatarii profunde, dar acestea arata acum ca niste ondulatii inaintea valului de marea dezlantuit de IA generativa. Noile instrumente puternice, exemplificate de ChaptGPT de la OpenAI, lansat in 2022, sunt numite pentru competenta lor la generatie: eseuri, poezii, scrisori de cerere de angajare, lucrari de arta, filme, muzica clasica.

Motorul din inima IA generativa este cunoscut sub numele de transformator. Dezvoltat de cercetatorii Google, initial pentru a imbunatati traducerea, a fost descris intr-o lucrare din 2017 al carei titlu, Attention Is All You Need, face riff-uri pe un hit de la Beatles. Chiar si creatorii sai par sa fi subestimat impactul pe care l-ar avea.

Llion Jones, un coautor al lucrarii si cel responsabil pentru titlul acesteia, a parasit Google de atunci pentru a fonda o noua companie, Sakana AI. Vorbind din biroul sau din Tokyo, unde pregatea un nou experiment de transformare, el a reflectat asupra primirii ziarului. „Ne-am gandit ca cream ceva destul de general, nu a fost conceput pentru a face traduceri in mod specific. Dar nu cred ca ne-am gandit vreodata ca va fi acest general, ca va prelua”, spune el. „Aproape totul functioneaza cu transformatoare acum.”

Inainte de transformare, traducatorii bazati pe inteligenta artificiala invatau de obicei limba prin procesarea propozitiilor un cuvant dupa altul. Abordarea are dezavantajele ei. Procesarea cuvintelor in secventa este lenta si nu functioneaza bine pentru propozitii lungi: pana cand se ajunge la ultimele cuvinte, primele au fost uitate. Transformatorul rezolva aceste probleme cu ajutorul unui proces numit atentie. Permite retelei sa proceseze toate cuvintele dintr-o propozitie simultan si sa inteleaga fiecare cuvant in contextul celor din jur.

GPT-ul OpenAI – care inseamna „transformator generativ pre-antrenat” – si modele similare in limbaj mare pot produce pasaje de text lungi si fluente, daca nu intotdeauna complet de incredere. Antrenati pe cantitati enorme de date, inclusiv cea mai mare parte a textului de pe internet, acestia invata caracteristici ale limbajului care eluda algoritmii anteriori.

Poate cel mai frapant si mai interesant este ca transformatoarele isi pot indrepta mana catre o gama larga de sarcini. Odata ce a invatat caracteristicile datelor pe care le furnizeaza – muzica, video, imagini si vorbire – i se poate solicita sa creeze mai multe. In loc sa aiba nevoie de retele neuronale diferite pentru a procesa medii diferite, transformatorul se poate ocupa de lot.

„Aceasta este o schimbare de pas. Este un veritabil moment tehnologic,” spune Michael Wooldridge, profesor de informatica la Universitatea din Oxford si autor al cartii The Road to Conscious Machines. „E clar ca Google nu a identificat potentialul. Imi este greu sa cred ca ar fi lansat lucrarea daca ar fi inteles ca va fi cea mai importanta dezvoltare AI pe care am vazut-o pana acum.”

Wooldridge vede aplicatii in CCTV, cu retele de transformatoare care detecteaza crimele pe masura ce au loc. „Vom intra intr-o lume a IA generativa in care Elvis si Buddy Holly se intorc din morti. Unde, daca esti fan al seriei originale Star Trek, IA generativa va crea cate episoade vrei, cu voci care suna ca William Shatner si Leonard Nimoy. Nu vei putea face diferenta.”

Dar revolutia are un pret. Modelele de antrenament precum ChatGPT necesita cantitati enorme de putere de calcul, iar emisiile de carbon sunt mari. Inteligenta artificiala generativa „ne-a pus pe un curs de coliziune cu criza climatica”, spune Penn. „In loc sa ne supraingineram societatea pentru a rula pe AI tot timpul, in fiecare zi, sa o folosim pentru ceea ce este util si sa nu ne pierdem timpul acolo unde nu este.”