Extreme Light Infrastructure – Nuclear Physics (ELI-NP) reprezintă cea mai importantă infrastructură de cercetare din România, specializată pe fizică nucleară experimentală. Planul de cercetare al ELI-NP reflectă colaborarea a mai mult de o sută de cercetători seniori din peste patruzeci de institute și universități de top și propune comunității academice internaționale soluționarea unor probleme științifice de maxim interes, descrise deja in numerele precedente ale Știință&Tehnică.

În cele ce urmează, vom prezenta câteva din fundamentele fizicii computaționale, considerată al treilea pilon al fizicii moderne, alături de fizica teoretică și de cea experimentală, partea finală a textului fiind dedicată infrastructurii de calcul științific avansat și stocare de date ce urmează a fi folosită la ELI-NP.

 

O butadă care circulă de multe decenii în comunitatea fizicienilor spune că Richard Feynman, văzând numeroasele ipoteze simplificatoare folosite într-o modelare hidrodinamică, a replicat ironic că modelul în discuție era excelent pentru studiul ”apei uscate” (în engleză: dry water), semn că modelul nu descria realitatea.

Cea mai atractivă modelare matematică a unui sistem fizic este însă aceea care permite determinarea în mod transparent a cât mai multor proprietăți ale acestui sistem. Aceasta este filozofia modelării întâlnite, de pildă, în manualele de liceu, unde calculele sunt simple, potrivite vârstei și abilităților matematice ale elevilor.

Spre deosebire de tematica unui manual, aleasă anume pentru ușurința cu care ideile pot fi comunicate unui auditoriu lipsit de experiență în domeniu, investigarea unui sistem fizic «real» ridica probleme matematice profund netriviale, a căror rezolvare analitică este deseori imposibilă.

Traiectoriile balistice studiate în liceu, de exemplu, porneau de la presupunerea – fundamentală – că obiectul studiat este, de fapt, un punct material, de masă constantă, lipsit de o geometrie proprie, fără frecare cu fluidul în care se deplasează, etc. În lipsa acestor ipoteze simplificatoare problema traiectoriei balistice devine extrem de complicată, iar descrierea precisă a dinamicii este o reală problemă de cercetare.

În perioada Primului Război Mondial, de pildă, Forest Ray Moulton, un important astronom american, a dezvoltat noi metode numerice de determinare a traiectoriei proiectilelor, activitatea sa fiind reflectată într-o carte devenită acum clasică: ”New methods in exterior ballistics” (1926).

 

Fizica computațională privește rezolvarea prin mijloace numerice (aproape niciodată folosind creionul și o foaie de hârtie, ci întotdeauna calculatorul) a modelelor matematice folosite în studiul sistemelor fizice «reale». Un specialist în fizica computațională are, prin natura profesiei, bune cunoștințe de matematici aplicate (în special metode numerice), programare serială și (mai nou) paralelă, noțiuni avansate de structura calculatoarelor și, în mod evident, o foarte bună înțelegere deopotrivă calitativă și cantitativă a sistemelor fizice pe care le investighează.

Evoluția acestui domeniu a fost sincronă dezvoltării tehnicilor de calcul, optica în rândul comunității fizicienilor schimbându-se substanțial în ultimele decenii. Philip W. Anderson, de pildă, rămas în istoria fizicii grație localizării care-i poartă numele, vorbea în prelegerea publică susținută cu ocazia decernării Premiului Nobel pentru Fizică în 1977 de ”the indignity of numerical simulations” (în traducere: lipsa de demnitate a simulărilor numerice), în timp ce comunicatul de presă ce anunța decernarea Premiilor Nobel pentru Chimie în 2013 lui Martin Karplus, Michael Levitt și Arieh Warshel purta subtitlul ”The computer — your Virgil in the world of atoms” (în traducere: Calculatorul – un Virgiliu personal în lumea atomilor). Comunicatul menționat anterior explica apoi în cuvinte simple, lipsite de echivoc, cum „cercetătorii au lăsat calculatoarele să devoaleze procesele chimice”, „calculatoarele fiind pentru chimiști un instrument la fel de important ca eprubeta”.

O discuție detaliată asupra tipurilor de abordări computaționale este cu mult peste țelul acestui text, însă o analiză în retortă scoate la iveală două tipuri principale de probleme, anume problemele care se pretează la abordări (implementări numerice) aproape cu desăvârșire secvențiale, și problemele care pot fi rezolvate numeric folosind metodele calculului paralel.

 

Identificarea soluțiilor unui sistem complicat de ecuații algebrice neliniare este un exemplu clasic de problemă care acceptă doar soluții numerice secvențiale, în timp ce determinarea numerelor prime de la 1 la 109 este o problemă ce poate fi rezolvată ușor cu metodele calculului paralel.

Pentru rezolvarea primei probleme nu contează numărul de calculatoare aflate la dispoziția unui cercetator, algoritmii disponibili fiind in esență secvențiali (pot rula pe un singur procesor), în timp ce pentru a doua problemă, șirul celor 109 numere întregi poate fi împărțit cu ușurință într-un număr oarecare de șiruri de lungime considerabil mai mică, analiza fiecărui asemenea subșir fiind alocată unui calculator care lucrează independent de celalte.

Un alt exemplu, mai apropiat de experiența directă cu calculatorul, privește proiecțiile 3D folosite în jocurile de acțiune, în care fiecare pixel de pe ecran poate fi generat (în engleză: rendered) independent de ceilalți pixeli – de aici și zecile, sutele (și uneori miile) de nuclee de calcul, altfel spus micro-procesoare (în engleză: cores), disponibile acum pe o placă grafică (GPU, abreviere de la graphical processing unit). Asemenea probleme intră în categoria embarrassingly parallel problems (în traducere: probleme jenant de paralele).

 

Spre deosebire de exemplele de mai sus, majoritatea exemplelor din activitatea curentă de cercetare diferă într-un aspect semnificativ: subproblemele nu sunt independente una de alta decât o perioadă foarte scurtă, fiind necesară agregarea rezultatelor si reîmpărțirea problemei inițiale în subprobleme. Trecerea de la metodele numerice secvențiale la cele paralele a fost catalizată de apariția procesoarelor cu mai multe nuclee de calcul și de utilizarea pe scară largă a plăcilor grafice pentru calcule științifice.

Dezvoltarea fizicii computaționale este, indiscutabil, un subiect pasionant. Matematicienii au fost primii care au observat că o parte din problemele la care lucrau nu puteau fi rezolvate exact prin metode analitice și au dezvoltat metode numerice pentru a obține, prin calcule numerice laborioase, soluții aproximative.

Acesta este motivul pentru care o bună parte din metodele folosite în mod curent în fizica computațională poartă numele unor oameni de știință de prim rang ca Newton, Euler, Gauss, Jacobi etc., chiar dacă metodele actuale păstrează foarte puțin din forma inițială. Cu excepția unor realizări izolate , majoritatea covârșitoare a metodelor numerice dezvoltate înaintea celui de-Al Doilea Război Mondial se reduceau la o serie lungă de calcule numerice efectuate cu grijă, pe (multă) hârtie. Grație muncii de pionierat a lui Alan Mathison Turing (1912-1954) și John von Neumann (1903-1957) precursoarele calculatoarelor moderne au început a fi folosite pe scară largă pentru implementarea algoritmilor numerici.

 

Un moment aparte îl reprezintă înființarea Centrului European pentru Cercetări Nucleare – CERN în 1954 care s-a impus în următoarele decenii ca lider mondial in fizica energiilor înalte și ca generator de soluții ITC inovative. Cel mai cunoscut produs al CERN este, indiscutabil, World Wide Web, gândit inițial ca un sistem de management intern al documentelor.

Adevărate pietre de hotar sunt și:

  • soluțiile de calcul distribuit, grupate acum sub umbrela Worldwide LHC (Large Hadron Colider) Computing Grid – WLCG – cuprinde centre din 40 de țări și pune la dispoziția a 10.000 de cercetători aproximativ 500.000 de procesoare și o capacitate de stocare de 260 PB; elementul cheie din spatele acestei mari colaborări internaționale este așa-numitul middleware, supranumit ”software glue” (în traducere: lipici de software), care permite integrarea eficientă a unui set dat de aplicații software pe fiecare nod al unei rețele de calcul științific distribuit;
  • suita ROOT, dezvoltată inițial pentru analiza datelor experimentale din fizica particulelor elementare, dar folosită acum în multe alte domenii;
  • platforma de simulări GEANT (abreviere a GEometry ANd Tracking), folosită pentru simularea cu ajutorul metodelor de tip Monte-Carlo a modului în care particulele elementare parcurg diverse medii, ș.a.m.d.

Soluțiile avute în vedere la ELI-NP pentru calcul științific avansat și stocare de date preiau experiența dobândită la CERN și la alte infrastructuri similare de cercetare și vin în sprijinul investigațiilor experimentale cu rezultate numerice precise care ajută la înțelegerea mai bună a datelor experimentale și generează uneori chiar teme noi de cercetare.

 

O bună parte din simulările ce urmează a fi folosite pentru studiul materiei în câmpuri laser intense folosesc metodele calculului paralel, iar necesarul actual de calcul depășește ușor 10.000 de nuclee de procesare, în timp ce pentru simulările dedicate materiei nucleare și a interacției acesteia cu fasciculele gamma, calculul distribuit pare a fi soluția optimă.

Sunt avute în vedere și soluții hibride, de tipul HPC over grid (în traducere: calcul de înaltă performanță pe grid), care permit configurarea unui sistem distribuit constituit din noduri distincte, nu în mod obligatoriu identice, fiecare nod fiind dedicat unui anumit tip de calcul paralel.

Pe lângă simulările numerice menționate anterior, infrastructura de calcul urmează a fi folosită și pentru procesarea și analizarea datelor experimentale, soluția tehnică preferată fiind aceea a unui sistem de calcul distribuit, structurat ierarhic, similar celui folosit la CERN. Pe partea de stocare de date, necesarul este de ordinul petabyte-ilor, un petabyte reprezentând cantitatea de informație stocată pe aproximativ 223.000 de DVD-uri.

Se spune, în glumă, că așa cum cea mai stabilă masă este cea cu trei picioare si un plan de cercetare coerent are nevoie de trei piloni: cercetarea experimentală, cercetarea teoretică si investigațiile numerice. În semn de recunoaștere a importanței crescânde a fizicii computaționale, calculele numerice au început a fi numite experimente in silico (în traducere: in siliciu), formând, alături de experimentele in vivo și cele in vitro, tripticul fundamental al investigațiilor experimentale moderne.

Comentați pe Facebook