5
(2)

O nouă arhitectură în domeniul calculatoarelor optice promite să revoluționeze modul în care modelele de inteligență artificială (AI) sunt antrenate și executate, înlocuind vechile limitări cu operațiuni rapide, efectuate la viteza luminii.

Cercetătorii au dezvoltat o arhitectură de bază pentru calculatoarele optice de generație următoare, care folosesc lumina în locul electricității pentru a alimenta cipurile. Aceasta ar putea transforma fundamental modul în care sunt antrenate și rulate modelele de AI.

În centrul modelelor de limbaj extinse (LLMs) și al celor bazate pe învățare profundă se află o structură organizatorică ponderată numită “tensor”, care funcționează asemenea unui dulap de arhivare cu bilețele lipite, indicând care sertare sunt cele mai utilizate.

Când un model de AI este antrenat pentru a efectua o sarcină sau funcție, cum ar fi recunoașterea unei imagini sau predicția unei secvențe de text, acesta sortează datele în acești tensori. În sistemele moderne de AI, viteza de procesare a datelor tensoriale – sau capacitatea de a sorta prin dulapurile de arhivare – reprezintă un blocaj fundamental de performanță, care stabilește o limită clară pentru cât de mare poate deveni un model.

În computația tradițională bazată pe lumină, modelele analizează tensorii prin emiterea de multiple rafale de laser. Ele funcționează ca un dispozitiv care scanează un cod de bare pe un pachet pentru a determina conținutul acestuia, exceptând faptul că în acest caz fiecare container face referire la o problemă matematică. Cantitatea de putere de procesare necesară pentru a calcula aceste numere crește odată cu capacitățile înnăscute ale modelelor.

Deși computația bazată pe lumină este mai rapidă și mai eficientă din punct de vedere energetic la scară mai mică, majoritatea sistemelor optice nu pot fi rulate în paralel. Spre deosebire de unitățile de procesare grafică (GPU-uri), care pot fi legate împreună pentru a crește exponențial cantitatea și disponibilitatea puterii de procesare, sistemele bazate pe lumină sunt de obicei rulate liniar. Din acest motiv, majoritatea dezvoltatorilor preferă computația paralelă, care oferă avantaje de putere la scară.

Această limitare la scalare este motivul pentru care modelele cele mai puternice create de companii ca OpenAI, Anthropic, Google și xAI necesită mii de GPU-uri care funcționează în tandem pentru a fi antrenate și operate.

Dar noua arhitectură, numită Multiplicare Paralelă a Matricelor Optice (POMMM), ar putea elimina problema care a împiedicat până acum avansul computației optice. Spre deosebire de metodele optice anterioare, aceasta efectuează multiple operațiuni tensoriale simultan, utilizând o singură rafală de laser.

Rezultatul este un design hardware AI de bază cu potențialul de a escalada viteza de procesare a tensorilor unui sistem AI dat dincolo de capacitățile hardware-ului electronic de ultimă oră, reducând în același timp amprenta sa energetică.

Studiul, publicat pe 14 noiembrie în jurnalul Nature Photonics, detaliază rezultatele unui prototip experimental de calcul optic, împreună cu o serie de teste comparative împotriva schemelor standard optice și de procesare GPU.

Poll: Care este cel mai mare beneficiu al utilizării arhitecturii Multiplicare Paralelă a Matricelor Optice (POMMM) pentru modelele de inteligență artificială?





Formular 230 Asociatia Science&Technology

Cât de util a fost acest articol pentru tine?

Dă click pe o steluță să votezi!

Medie 5 / 5. Câte voturi s-au strâns din 1 ianuarie 2024: 2

Nu sunt voturi până acum! Fii primul care își spune părerea.

Întrucât ai considerat acest articol folositor ...

Urmărește-ne pe Social Media!

Ne pare rău că acest articol nu a fost util pentru tine!

Ajută-ne să ne îmbunătățim!

Ne poți spune cum ne putem îmbunătăți?

Leave a Reply

Your email address will not be published. Required fields are marked *

  • Rating