Il biocomputing è un avanguardistico campo di ricerca che opera all’intersezione tra biologia, ingegneria e informatica, e che prevede l’utilizzo di molecole di origine biologica (come il dna e le proteine) o di neuroni fisici per l’esecuzione di calcoli digitali. Nonostante l’integrazione fra elementi in silicio e tessuti organici richiami alla mente della maggior parte delle persone scenari fantascientifici dark alla David Cronenberg, le sperimentazioni in questo settore vanno avanti da decenni, spesso con risultati sorprendenti.
In questo ambito si inserisce il cosiddetto wetware computing, incentrato sullo sfruttamento di neuroni viventi per eseguire calcoli informatici. I computer basati su questa tecnologia sono concettualmente molto diversi da quelli convenzionali, in quanto utilizzano materiale cerebrale e offrono la possibilità di un’elaborazione sostanzialmente più efficiente dal punto di vista energetico.
L’idea di base è simile a quella delle reti neurali artificiali delle moderne intelligenze artificiali (che d’altronde nascono proprio per simulare i processi del cervello umano), con una differenza fondamentale: se il funzionamento degli algoritmi di IA si basa sugli ormai onnipresenti microchip, per questa tecnologia non sembra esserci spazio per applicazioni commerciali in tempi brevi. Ma le cose potrebbero cambiare.
Neuroplatform
Nelle scorse settimane la startup svizzera FinalSpark ha presentato la prima piattaforma online che permette ai ricercatori internazionali di condurre esperimenti a distanza su neuroni biologici in vitro. Si tratta, in altre parole, dei primi bioprocessori commerciali della storia.
La piattaforma si chiama Neuroplatform e garantisce accesso ventiquattro ore al giorno a quattro multi-electrode arrays, ognuno dei quali ospita quattro organoidi di tessuto cerebrale umano. Il totale a disposizione dei ricercatori-utenti ammonta quindi a sedici bioprocessori interconnessi, che possono apprendere ed elaborare autonomamente informazioni complesse. Come spiegato nel paper di ricerca pubblicato dalla stessa startup, l’infrastruttura digitale consente di eseguire esperimenti su organoidi neurali, con una lifetime (letteralmente la «durata di vita») che può superare anche i cento giorni.
Al di là dei tecnicismi, stiamo parlando di una fase ancora sperimentale del progetto: come giustamente sottolineato dal sito specializzato Futuroprossimo.it, bisognerà valutare la scalabilità di questa soluzione e verificare in maniera indipendente le affermazioni di FinalSpark. La biocomputazione, strettamente collegata alla nanobiotecnologia, è infatti un campo di studi relativamente giovane e siamo ancora alla ricerca della quadra per far funzionare, a livello sperimentale, sistemi piuttosto rudimentali.
Sulla carta però, le possibili implicazioni sono enormi. In una fase come quella attuale, caratterizzata dall’exploit commerciale dell’IA e dalla corsa globale della produzione di microchip, gli sviluppi in questo settore potrebbero portare a un totale stravolgimento del paradigma esistente.
Emissioni digitali
Le prospettive sono entusiasmanti. Non solo sul piano strettamente tecnico, ma anche ambientale-climatico. Sempre secondo quanto dichiarato da FinalSpark, i bioprocessori sviluppati consumano un milionesimo dell’energia richiesta dai processori digitali tradizionali, riducendo l’impatto ambientale in un settore che con l’espansione dell’IA sta già affrontando sfide energetiche significative.
Come sottolineato dalla stessa azienda elvetica, l’addestramento di un large language models come GPT-3 ha richiesto circa dieci gigawattora di elettricità (oltre seimila volte il consumo annuo pro-capite di un cittadino europeo) e il consumo di energia nel settore dell’intelligenza artificiale è destinato ad aumentare più rapidamente che in passato nei prossimi anni.
Naturalmente il fenomeno riguardava le nostre abitudini digitali ben prima della corsa mondiale all’IA. Stando al report Lean Ict – Towards Digital Sobriety, nel 2008 device elettronici e infrastrutture digitali hanno contribuito per il due per cento alle emissioni globali di CO2, una percentuale salita al 3,7 per cento nel 2020 e in costante aumento.
Secondo uno studio della Royal Society, se il web fosse uno Stato sarebbe il quarto Paese più inquinante al mondo: il semplice invio di una mail comporta una produzione di anidride carbonica che va dai quattro ai cinquanta grammi e il consumo dei data center sparsi per il mondo rappresenta l’un per cento della domanda globale.
Dal 2010 al 2021, d’altronde, i data center hanno assistito a un aumento medio della loro capacità di calcolo del cinquecentocinquanta per cento, a fronte di un consumo cresciuto appena del sei per cento. Questo perché nel corso dell’ultimo decennio gli accorgimenti tecnici (tra cui anche l’utilizzo di programmi basati su intelligenza artificiale) hanno permesso un’ottimizzazione dei consumi.
Lato software esiste una vera e propria filosofia, il green coding, che riguarda pratiche volte a ridurre l’impatto ambientale nella fase di development dei programmi, per esempio utilizzando algoritmi il più efficienti e performanti possibili. Gli stessi processori dei nostri computer sono sempre più ecologici, per motivi commerciali prima ancora che ambientali: i chip in grado di garantire un’autonomia maggiore delle batterie e capaci di evitare surriscaldamenti sono, banalmente, più appetibili per il mercato.
Spesso però il problema sta a monte. L’energia necessaria a produrre fisicamente un chip per computer può essere «superiore a quella che il chip stesso consuma in dieci anni di vita», come dichiarato dal professore di ingegneria elettronica di Harvard Gage Hills. Lo sforzo di comprimere miliardi di transistor su ogni centimetro quadrato di silicio divora infatti enormi quantità di energia elettrica, al netto dell’ottimizzazione dei consumi del device su cui verrà installato.