Chiar acum, specialiștii laboratorului de cercetare IBM, din Almaden, California, construiesc cel mai mare centru de stocare a datelor din lume – un „colos” de 120 de petabytes alcătuit din circa 200.000 de hard disk-uri (HDD) obișnuite, care funcționează la unison.
Pentru a înțelege mai bine capacitatea serverului, 120 de petabytes reprezintă echivalentul a 120 de milioane de gigabytes – sau destul spațiu pentru a stoca aproximativ 24 de miliarde de fișiere MP3 de dimensiuni obișnuite – precum și de opt ori mai mult decât capacitatea de 15 petabytes caracteristică celor mai „generoase” sisteme de stocare folosite curent.
Pentru a obține această performanță, cei de la IBM au aliniat HDD-uri individuale în sertare orizontale, aproximativ la fel ca în majoritatea centrelor de date, dar au folosit spații mai largi, pentru a putea introduce mai multe hard disk-uri în compartimente relativ mici.
De asemenea, inginerii au implementat sistemului un nou mecanism de rezervă (recuperare/backup), prin intermediul căruia informația unui dispozitiv pe cale să cedeze este automat și lent transmisă către o unitate înlocuitoare, permițându-i sistemului să opereze în continuare fără a se poticni.
Un alt sistem, denumit GPFS, distribuie fișierele stocate către multiple HDD-uri, permțându-i mașinăriei să citească și să scrie deodată diferite componente ale oricări fișier, în timp ce își indexează întreaga colecție la viteze năucitoare.
Compania dezvoltă acest sistem ca pe un client autonom ce are menirea de a derula simulări complexe. Totuși, Bruce Hillsberg, director al departamentului de cercetare în stocare de la IBM, este de părere că numai o chestiune de timp previne ca și sistemele de cloud computing să folosească arhitecturi similare și deci tehnologia să devină accesibilă pentru public.
Sursa
Foto: Wikimedia Commons