Cercetătorii au folosit inteligența artificială (IA) pentru a crea virusuri noi, deschizând astfel calea către forme de viață proiectate prin IA. Aceste virusuri sunt suficient de diferite față de tulpinile existente încât ar putea fi considerate noi specii. Mai exact, sunt bacteriofagi, ceea ce înseamnă că atacă bacteriile, nu oamenii, iar autorii studiului au luat măsuri pentru a se asigura că modelele lor nu pot proiecta virusuri capabile să infecteze oameni, animale sau plante.
Cu toate acestea, recent, un alt grup de oameni de știință a demonstrat că IA poate ocoli cu ușurință măsurile de securitate existente, utilizate pentru a preveni dezvoltarea armelor biologice. Într-un studiu publicat joi (2 octombrie) în revista Science, cercetătorii de la Microsoft au dezvăluit că IA poate depăși măsurile de siguranță care ar împiedica, de obicei, actorii rău intenționați să comande molecule toxice de la companiile de aprovizionare.
După descoperirea acestei vulnerabilități, echipa de cercetare s-a grăbit să creeze patch-uri software care reduc semnificativ riscul. Acest software necesită în prezent expertiză specializată și acces la unelte specifice, la care majoritatea publicului nu are acces.
Împreună, noile studii subliniază riscul ca IA să proiecteze o nouă formă de viață sau un bioweapon care să reprezinte o amenințare pentru oameni — posibil declanșând o pandemie, în cel mai rău scenariu. Deocamdată, IA nu are această capacitate. Totuși, experții spun că un viitor în care IA ar putea face acest lucru nu este atât de îndepărtat.
Pentru a preveni ca IA să constituie un pericol, experții susțin că trebuie să construim sisteme de securitate pe mai multe niveluri, cu unelte de screening mai bune și reglementări care evoluează, guvernând sinteza biologică condusă de IA.
În centrul problemei legate de virusurile, proteinele și alte produse biologice proiectate de IA se află ceea ce este cunoscut sub denumirea de “problema cu dublă utilizare”. Aceasta se referă la orice tehnologie sau cercetare care ar putea avea beneficii, dar ar putea fi folosită și pentru a cauza intenționat daune.
Un cercetător care studiază bolile infecțioase ar putea dori să modifice genetic un virus pentru a înțelege ce îl face mai transmisibil. Dar cineva care intenționează să declanșeze următoarea pandemie ar putea folosi aceeași cercetare pentru a proiecta un patogen perfect. Cercetările privind livrarea de medicamente prin aerosoli pot ajuta persoanele cu astm, ducând la inhalatoare mai eficiente, dar aceleași designuri ar putea fi utilizate și pentru a livra arme chimice.
Sam King, student doctoral la Stanford, și supervisorul său, Brian Hie, profesor asistent de inginerie chimică, conștienți de această sabie cu două tăișuri, au dorit să construiască bacteriofagi noi — sau “fagi”, pe scurt — care să vâneze și să omoare bacteriile în pacienții infectați. Eforturile lor au fost descrise într-un preprint încărcat în baza de date bioRxiv în septembrie, și încă nu au fost revizuite de colegi.
Poll: Care este cel mai mare pericol asociat cu utilizarea inteligenței artificiale în crearea virusurilor noi?






























Leave a Reply