TecnologiaI supercomputer (per ora) riescono a simulare solo il 10 per cento del cervello umano

I computer odierni hanno una capacità di calcolo limitata, ma in futuro saranno dalle 10 alle 100 volte più potenti e ci avvicineranno a un sogno: replicare il funzionamento delle reti neurali umane

Pare che l’ultima frontiera della neuroscienza teorica sia ricreare al computer il funzionamento dell’intelligenza umana, neurone dopo neurone, al fine poi di riuscire a ricostruire i processi neurali che portano a un pensiero, a un ricordo, a un sentimento. C’è però un problema attualmente insormontabile: non esistono computer abbastanza potenti per gestire una elaborazione di calcolo così complessa, tanto che lo stesso computer K dell’Advanced Institute for Computational Science di Kobe, in Giappone, può affrontare al massimo il 10% del calcolo dei neuroni e relative sinapsi nella corteccia celebrale.

In soccorso dell’«algoritmo lento» stanno arrivando – per essere operativi tra qualche anno – i «supercomputer exascale». E qui, per i più, serve un inciso. La potenza di un supercomputer viene misurata in FLOPS, che sta per «floating point operation per second», traducibile con «operazioni in virgola mobile al secondo». E ovviamente più è alto il numero e più è potente il computer, tanto che la tecnologia odierna ragiona in quadrilioni di calcoli al secondo e quindi viene indicata con il prefisso «petaflop» (i relativi sistemi sono definiti «petascale»).

Mentre il prossimo step è appunto «exaflop» ed «exascale»: quintilioni di dati al secondo. Che in soldoni saranno «fionde» da 10 a 100 volte più potenti dei super computer di oggi. E, soprattutto, saranno macchine più adatte all’ottenimento di questo obiettivo pazzesco, ossia simulare al computer le reti cerebrali, come evidenzia anche «Frontiers in Neuroinformatics».

I supercomputer attuali sono composti da centinaia di migliaia di sottodomini chiamati nodi, con centri di elaborazione in grado di supportare diversi neuroni virtuali insieme alle loro connessioni. E uno dei problemi principali nella simulazione del cervello è quello di rappresentare con efficacia miliardi di neuroni e relative connessioni all’interno di questi centri di elaborazione per ridurre tempi e utilizzo della potenza necessaria. Con un problema sostanziale.

È come se il personale di un ufficio postale locale dovesse cercare la posta relativa al suo codice di avviamento postale tra tutta la posta nazionale. L’inefficienza è folle e il parallelo è molto simile a ciò che accade ora nella simulazione computeristica del cervello.

Per ogni coppia neuronale, il modello memorizza tutte le informazioni sulla connettività in ciascun nodo che ospita il neurone ricevente, il neurone postsinaptico. Intanto, il neurone presinaptico, che emette impulsi elettrici, sta gridando nel vuoto, perché l’algoritmo deve capire da dove proviene un particolare messaggio guardando unicamente al neurone ricevente e ai dati memorizzati all’interno del suo nodo. Quindi il nodo mittente trasmette il suo messaggio a tutti i nodi del neurone ricevente.

Ciò significa che ogni nodo ricevente deve ordinare ogni singolo messaggio nella rete, anche quelli destinati ai neuroni ospitati in altri nodi. Ciò significa che una grande porzione di messaggi viene gettata via in ogni nodo, perché il neurone destinatario non è presente in quel particolare nodo. In sintesi, anche se è tutto molto complicato, ci viene incontro ancora una volta Singularity, con un esempio significativo.

È come se il personale di un ufficio postale locale dovesse cercare la posta relativa al suo codice di avviamento postale tra tutta la posta nazionale. L’inefficienza è folle e il parallelo è molto simile a ciò che accade ora nella simulazione computeristica del cervello.

Più la dimensione della rete neuronale simulata è grande e più la questione si fa complicata perché ogni nodo deve dedicare spazio di memoria a un vero e proprio elenco di tutti i suoi abitanti neurali e le loro connessioni, ma alla scala di miliardi di neuroni, tale elenco diventa inservibile.

Il Research Center di Julich, in Germania, ha aggiunto un codice postale all’algoritmo che implementa le informazioni di ricerca, con i nodi ricevitori che contengono due blocchi di informazioni.

Il primo è un database che memorizza i dati su tutti i neuroni mittente che si connettono ai nodi. Poiché le sinapsi sono disponibili in diverse dimensioni e tipi che differiscono nel loro consumo di memoria, questo database ordina ulteriormente le informazioni in base al tipo di sinapsi formate dai neuroni nel nodo. Per una configurazione che differisce notevolmente dalle precedenti, in cui i dati di connettività sono ordinati dalla sorgente neuronale in entrata, non dal tipo di sinapsi.

Il secondo blocco memorizza i dati sulle connessioni effettive tra il nodo ricevente e i suoi mittenti. Simile al primo blocco, organizza i dati in base al tipo di sinapsi.

Così l’algoritmo è molto più specifico del suo predecessore: invece di memorizzare tutti i dati di connessione in ogni nodo, i nodi ricevitori memorizzano solo i dati rilevanti per i neuroni virtuali ospitati all’interno

All’interno di ogni tipo di sinapsi, separa quindi i dati dalla sorgente (il neurone del mittente). Così l’algoritmo è molto più specifico del suo predecessore: invece di memorizzare tutti i dati di connessione in ogni nodo, i nodi ricevitori memorizzano solo i dati rilevanti per i neuroni virtuali ospitati all’interno.

In pratica i ricercatori tedeschi hanno fornito a ciascun neurone del mittente una rubrica di destinazione. Durante la trasmissione i dati vengono suddivisi in blocchi, con ciascun blocco contenente un codice postale di ordinamento che lo indirizza ai nodi di ricezione corretti. E in una serie di test del supercomputer tedesco Juqueen, il nuovo algoritmo ha dimostrato di funzionare il 55% più veloce dei precedenti modelli su una rete neurale casuale, principalmente grazie al suo schema di trasferimento dati mirato. E grazie al fatto che la memoria del computer è ora disgiunta dalla dimensione della rete, con l’algoritmo che pare pronto per affrontare simulazioni su tutto il cervello.

Anche in questo caso siamo agli albori di qualcosa che potrà essere rivoluzionario per la comprensione di come realmente funziona il nostro cervello. Per salvaguardarci da malattie e tanto altro ancora. Però, va ribadito, è un lavoro di anni. Con i primi risultati che dovranno inseguire la semplificazione ulteriore del trasferimento dei dati e, soprattutto, sviluppare un software di simulazione cerebrale in grado di salvare regolarmente il suo processo in modo che in caso di crash (del computer), la simulazione non debba ricominciare da capo.

A parte ciò, pensarlo è l’inizio del farlo. Cosa? Il cervello umano digitale. Che suona utopistico ma anche vagamente inquietante, un po’ alla HAL 9000. Il super-computer di bordo della nave spaziale Discovery nel film “2001: Odissea nello spazio” del geniale Stanley Kubrick e dell’omonimo libro di Arthur C. Clarke. Ritenuto perfetto fino a quando non «sbrocca» e fa fuori tutti!

Entra nel club, sostieni Linkiesta!

X

Linkiesta senza pubblicità, 25 euro/anno invece di 60 euro.

Iscriviti a Linkiesta Club