GPU-urile sunt cipuri folosite de firme precum OpenAI pentru a construi programe AI de ultimă oră, cum ar fi ChatGPT.
Dacă cipurile AI ale AMD, pe care compania le numește „acceleratoare”, sunt acceptate de dezvoltatori și producătorii de servere ca înlocuitori pentru produsele Nvidia, ar putea reprezenta o piață mare, neexploatată inca, pentru producătorul de cipuri, care este cel mai bine cunoscut pentru procesoarele sale tradiționale.
CEO-ul AMD, Lisa Su, a declarat marți investitorilor și analiștilor din San Francisco că AI este „cea mai mare și mai strategică oportunitate de creștere pe termen lung a companiei”.
„Ne gândim la [piața] centrelor de date AI care va crește de la aproximativ 30 de miliarde de dolari în acest an, la o rată de creștere anuală compusă de peste 50%, la peste 150 de miliarde de dolari în 2027”, a spus Su.
Deși AMD nu a dezvăluit un preț, mișcarea ar putea pune presiune asupra prețurilor GPU-urilor Nvidia, cum ar fi H100, care poate costa 30.000 USD sau mai mult. Prețurile mai mici ale GPU-urilor pot contribui la reducerea costului ridicat al deservirii aplicațiilor AI generative.
Cipurile AI sunt unul dintre punctele strălucitoare din industria semiconductoarelor, în timp ce vânzările de PC-uri, un motor tradițional al vânzărilor de procesoare cu semiconductori, scad.
Luna trecută, CEO-ul AMD, Lisa Su, a declarat în cadrul unei conferinte că, deși MI300X va fi disponibil pentru eșantionare în această toamnă, va începe să fie livrat în volume mai mari anul viitor. Su a împărtășit mai multe detalii despre cip în timpul prezentării sale de marți.
„Îmi place acest cip”, a spus Su.
MI300X
AMD a spus că noul său cip MI300X și arhitectura sa CDNA au fost concepute pentru modele de limbaj mari și alte modele AI de ultimă oră.
„În centrul acestui lucru sunt GPU-urile. GPU-urile permit AI generativă”, a spus Su.
MI300X poate folosi până la 192 GB de memorie, ceea ce înseamnă că se potrivește modelelor AI și mai mari decât alte cipuri. Rivalul Nvidia H100 acceptă doar 120 GB de memorie, de exemplu.

Modelele de limbaj mari pentru aplicațiile AI generative folosesc multă memorie deoarece rulează un număr tot mai mare de calcule. AMD a prezentat modelul MI300x cu un model de 40 de miliarde de parametri numit Falcon. Modelul GPT-3 al OpenAI are 175 de miliarde de parametri.
„Dimensiunile modelelor devin mult mai mari și, de fapt, aveți nevoie de mai multe GPU-uri pentru a rula cele mai recente modele de limbaj mari”, a spus Su, observând că, cu memoria adăugată pe cipurile AMD, dezvoltatorii nu ar avea nevoie de atâtea GPU-uri.
AMD a mai spus că va oferi o arhitectură Infinity care combină opt dintre acceleratoarele sale M1300X într-un singur sistem. Nvidia și Google au dezvoltat sisteme similare care combină opt sau mai multe GPU-uri într-o singură cutie pentru aplicații AI.
Unul dintre motivele pentru care dezvoltatorii AI au preferat istoric cipurile Nvidia este că are un pachet software bine dezvoltat numit CUDA care le permite să acceseze caracteristicile hardware de bază ale cipului.
AMD a declarat marți că are propriul software pentru cipurile sale AI, pe care îl numește ROCm.
„Acum, deși aceasta este o călătorie, am făcut progrese foarte mari în construirea unei stive de software puternice care funcționează cu ecosistemul deschis de modele, biblioteci, cadre și instrumente”, a spus președintele AMD, Victor Peng.