Le aritmie cardiache colpiscono milioni di persone e causano 300.000 morti ogni anno in Europa. I loro meccanismi sono studiati mediante simulazione numerica ma richiedono calcoli su una scala mai raggiunta prima. Il cuore umano, infatti, ha 10 miliardi di cellule, ciascuna dotata di un milione di canali ionici in grado di cambiare il proprio comportamento in meno di un nanosecondo. L’esecuzione di calcoli a livello di questi canali rappresenta una forza di calcolo che supera di gran lunga le capacità di calcolo degli attuali computer.
Come l’aritmia cardiaca, molti altri fenomeni sono difficili da comprendere a causa dell’enorme complessità dei sistemi che li portano. Gli esempi includono l’evoluzione del clima, lo studio degli atomi o il funzionamento dei sistemi microbici.
Quindi, gli scienziati trasformano i fenomeni in “modelli” (insiemi di equazioni) che verranno poi trascritti sotto forma di un programma per computer chiamato “simulazione”. I risultati di queste simulazioni possono poi essere confrontati con le osservazioni, al fine di verificare o migliorare i modelli, e con essi la nostra comprensione dei fenomeni.
Per ottenere risultati in tempi ragionevoli, le simulazioni vengono effettuate su computer superpotenti: i supercomputer.
Indice
Cos’è un supercomputer?
I supercomputer sono macchine in grado di eseguire calcoli complessi molto più velocemente di un personal computer. Ad esempio, il supercomputer Frontier, il più veloce al mondo oggi, può calcolare fino a un miliardo di miliardi di operazioni al secondo! Una performance chiamata “exascale” in riferimento all’exaflop che corrisponde a un miliardo di miliardi di calcoli digitali.
Dagli anni ’90 i computer sono diventati un miliardo di volte più potenti, e con questo supercomputer che supera per la prima volta la mitica barriera dell’exaflop, si aprono nuove opportunità in particolare per gli scienziati, i principali utilizzatori di queste macchine.
Questi supercomputer rappresentano però ingenti investimenti (il supercomputer Jean-Zay installato a Idris, per esempio, costa circa 25 milioni di euro) e un dispendio energetico con bollette che possono arrivare a milioni di euro all’anno: allora, perché cercare sempre di aumentarne la potenza?
Dai modelli matematici alla simulazione di ciò che ci circonda
Alcune simulazioni richiedono molta potenza di calcolo. È il caso, ad esempio, delle simulazioni che cercano di capire l’evoluzione del clima, delle malattie, anticipano terremoti o più in generale disastri naturali o ancora il flusso d’aria intorno alle ali di un aeroplano. Questi complessi fenomeni generano diverse ore o giorni di calcoli su grandi macchine cosiddette “di produzione” (“mini-supercomputer” che servono per testare le applicazioni prima di lanciarle su veri e propri supercomputer), con moltissimi dati. Solo un supercomputer sarà in grado di eseguire tali calcoli in un tempo ragionevole, elaborare grandi volumi di dati e aumentare l’accuratezza delle simulazioni.
Per capire come questo sia possibile, immaginiamo di avere un muro lungo dieci chilometri da costruire e due muratori a disposizione per fare questo lavoro. Per costruire il muro in modo efficiente, il lavoro sarà diviso equamente tra i due muratori e in modo tale che i muratori possano posare i mattoni del muro senza intralciarsi a vicenda. Se ora abbiamo a disposizione duecento muratori, distribuire il lavoro può diventare complesso. Il muro sarà costruito molto più velocemente, ma la sua costruzione richiederà una logistica a monte affinché tutti i muratori lavorino in modo efficiente.
È lo stesso con le simulazioni. Il muro qui rappresenta una simulazione e i muratori dei processori a nostra disposizione in un supercomputer. Più processori abbiamo, più veloce dovrebbe essere la simulazione. D’altra parte, è necessario molto lavoro di pianificazione affinché questi processori condividano le risorse e comunichino efficacemente tra loro. È necessario evitare il più possibile che i processori si aspettino l’un l’altro, il che rallenta l’applicazione.
Cardiologia: un campo d’elezione per l’uso dei supercomputer
Anche se oggi non esiste ancora la potenza di calcolo necessaria per simulare il funzionamento di un cuore umano dalla scala delle sue cellule, l’aumento della potenza dei supercomputer consente ai modelli esistenti di guadagnare in precisione.
Ad esempio, il progetto europeo MICROCARD in cui è coinvolto il centro Inria dell’Università di Bordeaux utilizza nuove architetture di supercomputer per capire come le cellule del cuore generano aritmie quando sono malate o scarsamente accoppiate tra loro e come possiamo rilevare una situazione pericolosa osservando la tensione elettrica segnali misurati su un paziente.
In un cuore sano, le connessioni tra le cellule sono così forti che le cellule sembrano agire come un’unica grande cellula. Questo fenomeno è chiamato “sincizio“. I modelli numerici utilizzati oggi considerano il tessuto cardiaco come un sincizio. Sono quindi composti da milioni di elementi, ogni elemento rappresenta alcune centinaia di celle.
In un cuore danneggiato mancano cellule e connessioni. Se una cellula del muscolo cardiaco muore, non viene sostituita da un’altra. Di conseguenza, il muscolo non si comporta più come un sincizio in certi punti.
Per comprendere questa situazione, è importante modellare il cuore cellula per cellula. Non ci saranno più più celle per elemento ma migliaia di elementi per cella, permettendo di rappresentare la forma delle singole celle e le loro connessioni con le celle vicine. Un tale modello cella per cella sarà centomila volte più complesso dei modelli attuali, che già richiedono l’uso di supercomputer.
I calcoli associati alla simulazione di questo problema possono essere eseguiti solo su supercomputer esascalari. Con un supercomputer come Frontier, è ora possibile comprendere l’elettrofisiologia cardiaca. Alcuni supercomputer sono accessibili ai ricercatori, altri sono riservati a istituti e progetti collaborativi.
Autore
Emmanuelle Saillard, Inria, Mark Potse, Università di Bordeaux