Pentru cei dintre voi care nu au acordat o atentie deosebita, Nvidia nu mai este o companie de jocuri. Oh, sigur, continua sa faca unele dintre cele mai performante cipuri grafice pentru jocuri si gazduiesc un serviciu global de jocuri bazate pe cloud, numit GeForce Now. Dar daca faceti un pas inapoi si analizati intreaga gama de oferte ale companiei, aceasta este semnificativ mai larga decat a fost vreodata – un punct de vedere CEO Jensen Huang a capatat acasa in timpul prezentarii sale GTC saptamana aceasta. In cuvintele sale, ,,Nvidia este acum o companie de calcul completa”.
Reflectand cat de mult s-a extins domeniul de aplicare al Nvidia in ultimii ani, in mod ironic au existat probabil la fel de multe stiri despre cipurile non-GPU pe cat au existat GPU-urile la GTC 2021 (GPU Technology Conference).
Intre un nou procesor de 5nm bazat pe arma denumit in cod ,,Grace”, o largire a liniei DPU creata de la achizitia Mellanox, noi adaugiri la cipurile si platformele sale auto si discutii despre calculul cuantic, procesarea datelor 5G si multe altele, compania ajunge la portiuni din ce in ce mai largi ale peisajului de calcul .
Pentru a nu fi lasati afara, desigur, au existat noi anunturi legate de GPU si GPU, inclusiv o gama impresionanta de noi software si servicii GPU bazate pe cloud bazate pe AI.
Din pacate, Nvidia a extins gama de aplicatii pentru GPU-uri de cativa ani. Impactul sau asupra invatarii automate, a retelelor neuronale profunde si a altor modele sofisticate de IA a fost bine documentat, iar la spectacolul din acest an, compania a continuat sa extinda aceasta acoperire. In special, Nvidia si-a evidentiat eforturile indreptate catre intreprindere cu o gama intreaga de modele de IA pre-construite pe care companiile le pot implementa mai usor pentru o gama larga de aplicatii. Instrumentul de conversatie Jarvis anuntat anterior, de exemplu, este acum disponibil in general si poate fi utilizat de companii pentru a construi instrumente automate de servicii pentru clienti.
Oricat de impresionante sunt aplicatiile GPU pentru intreprindere, marea presa de stiri (si unele dintre cele mai mari confuzii) din GTC a venit din trecerea strategica a companiei la trei tipuri diferite de cipuri: GPU-uri, DPU-uri si CPU-uri.
Proiectul Maxine, recent dezvaluit, este conceput pentru a imbunatati calitatea video prin conexiuni cu latime de banda redusa si pentru a efectua transcrierea automata si traducerea in timp real – capabilitati practice si oportune pe care le au multe instrumente de colaborare, dar care ar putea fi imbunatatite probabil cu integrarea bazei cloud a Nvidia, Instrumente alimentate de AI. Compania a facut, de asemenea, un anunt important cu VMware, mentionand ca instrumentele si platformele AI ale Nvidia pot rula acum pe medii virtualizate VMWare, pe langa hardware-ul dedicat bare metal. Desi aparent banal la prima vedere, aceasta este de fapt o dezvoltare extrem de importanta pentru numeroasele companii care gestioneaza o buna parte din volumul lor de munca pe VMware.
Oricat de impresionante sunt aplicatiile GPU pentru intreprindere, marea presa de stiri (si unele dintre cele mai mari confuzii) din GTC a venit din trecerea strategica a companiei la trei tipuri diferite de cipuri: GPU-uri, DPU-uri si CPU-uri. CEO-ul Huang a rezumat cu atentie abordarea printr-o diapozitiva care arata foile de parcurs pentru cele trei linii diferite de cipuri pana in 2025, subliniind modul in care fiecare linie va primi actualizari la fiecare cativa ani, dar cu puncte de pornire diferite, permitand companiei sa aiba una (si uneori doua) ) progrese arhitecturale majore in fiecare an.
Linia DPU, denumita in cod BlueField, se bazeaza pe tehnologia de retea de mare viteza achizitionata de Nvidia cand a cumparat Mellanox in aprilie trecut. Destinata in mod special centrelor de date, HPC (calcul de inalta performanta) si aplicatiilor de cloud computing, linia de cipuri BlueField este ideala pentru a accelera performanta aplicatiilor moderne bazate pe web.
Deoarece aceste aplicatii sunt impartite in numeroase containere mai mici, care ruleaza adesea pe mai multe servere fizice, ele sunt foarte dependente de ceea ce se numeste in mod obisnuit trafic ,,est-vest” intre rack-urile de calcul dintr-un centru de date. Important, insa, aceleasi principii de dezvoltare software sunt utilizate pentru o gama din ce in ce mai larga de aplicatii, inclusiv pentru automobile, ceea ce ajuta la explicarea de ce ultima generatie de SoC auto (denumita in cod Atlan si discutata mai jos) include un nucleu BlueField in proiectarea sa.
Noua linie CPU – care a generat, fara indoiala, cel mai mult buzz – este un design bazat pe Arm, denumit in cod Grace (pentru pionierul in informatica Grace Hopper – o miscare clasica din partea Nvidia). Desi multe rapoarte initiale au sugerat ca acesta a fost un produs competitiv pentru procesoarele Intel si AMD x86, adevarul este ca obiectivul initial de implementare pentru Grace este doar pentru HPC si alte incarcari de lucru imense bazate pe modelul AI. Nu este un design CPU de uz general. Totusi, in tipurile de aplicatii AI avansate, foarte solicitante si cu intensitate in memorie pe care Nvidia le vizeaza initial pentru Grace, rezolva problema critica a conectarii GPU-urilor la memoria de sistem la viteze semnificativ mai mari decat arhitecturile traditionale x86 pot oferi. In mod clar, aceasta nu este o aplicatie de care fiecare organizatie poate profita,
Desigur, o parte din motivul confuziei este ca Nvidia incearca in prezent sa cumpere Arm, astfel incat orice legatura dintre cele doua este obligata sa se umfle intr-o problema mai mare. In plus, Nvidia a demonstrat o serie de aplicatii diferite in care lucreaza pentru a-si combina IP-ul cu produsele bazate pe Arm, inclusiv cloud computing cu AWS Graviton de la Amazon, calcul stiintific coroborat cu CPU-urile de serviciu Altra de uz general Ampere, infrastructura de retea 5G si computerul de margine cu Octeon al lui Marvell si PC-uri cu SoC-uri MT819x ale MediaTek.
Ca si in cazul noii generatii BlueField DPU, noua diagrama Atlan SoC incorporeaza un nucleu CPU ,,Grace Next”, generand si mai multe speculatii. Apropo, Nvidia a evidentiat, de asemenea, o serie de anunturi legate de automobile la GTC.
Platforma automobilistica de noua generatie a companiei poarta numele de cod Orin si se asteapta sa apara in vehicule de la mari jucatori precum Mercedes-Benz, Volvo, Hyundai si Audi incepand cu anul viitor. Compania a anuntat, de asemenea, computerul central Orin, unde un singur cip poate fi virtualizat pentru a rula patru aplicatii diferite, inclusiv tabloul de instrumente, sistemul de infotainment, interactiunea si monitorizarea pasagerilor, precum si functiile de conducere autonoma si asistata cu vedere de incredere – un afisaj vizual computerele masinii vad, concepute pentru a oferi pasagerilor incredere ca functioneaza corect. Compania a lansat, de asemenea, platforma de vehicule autonome Hyperion (AV) a opta generatie, care incorporeaza mai multe cipuri Orin, senzori de imagine, radar, lidar si ultimul software AV al companiei.
Un nou cip – Atlan mentionat anterior – este programat sa soseasca in 2025. Desi multi ar putea gasi prea mult un preaviz multianual, este o practica relativ standard in industria auto, unde lucreaza de obicei pe masini cu trei ani inainte de introducerea lor.
Atlan este, de asemenea, primul produs Nvidia care include toate cele trei arhitecturi de baza ale cipului companiei – GPU, DPU si CPU – intr-un singur design semiconductor.
Atlan este intrigant pe multe niveluri, dintre care cel mai important este faptul ca se asteapta sa multiplice puterea de calcul a lui Orin (care apare in 2022) si sa atinga o rata de 1.000 TOPS (operatii tera pe secunda). Dupa cum sa sugerat mai devreme, Atlan este, de asemenea, primul produs Nvidia care include toate cele trei arhitecturi de baza ale cipului companiei – GPU, DPU si CPU – intr-un singur design semiconductor.