Il grande segreto che fa avanzare la tecnologia e, di conseguenza, il nostro mondo, a questa velocità è solo uno: la compressione dati. Se ne parla poco, non fa notizia, di solito si preferisce concentrarsi sui materiali che compongono gli hardware, sempre più ricercati e costosi. Ma in realtà la chiave di tutto sta lì: nuove forme di algoritmo, permettono di inventare nuovi modi per accumulare più dati in meno spazio. Il supporto diventa più libero e può ospitare più informazioni. I calcoli diventano più veloci e sofisticati e si possono inventare nuovi algoritmi, e così via: più progresso per tutti.
La compressione dati viene utilizzata ogni giorno, dagli sms alle email fino alle immagini da internet, ma la sua storia è di poco più antica. Si può pensare che si sia cominciato a comprimere dati nel 1838, con il codice morse, e una rudimentale forma di sostituzione delle lettere con forme di codice più brevi.
La vera rivoluzione arriva quasi cento anni dopo: con la nascita della teoria dell’informazione. Si è cominciato con il codice morse, nel 1838, e a questo livello si è rimasti molto a lungo. Solo in seguito, cioè nel 1940, si toccherà una nuova tappa, con la nascita della teoria dell’informazione. Tutto comincia con la pubblicazione del lavoro “A Mathematical Theory of Communication”, da parte di Claude Shannon. Non ci dilunghiamo sul contenuto, basti sapere che nel testo sono presenti due teoremi (dai titoli non molto originali: sono il Primo teorema di Shannon e il Secondo Teorema di Shannon) che fissano i limiti tecnici generali della disciplina, oltre che i concetti principali alla base della teoria. Per capirsi, basta pensare al linguaggio: quando si parla, le parole più brevi sono più usate rispetto a quelle meno usate, e si capisce il senso di un discorso anche se non si colgono tutti i suoni o le parole delle frasi. È il risultato anche di un’evoluzione che tende all’economia.
Ecco: lo stesso vale per la teoria dell’informazione, che cerca metodi per comprimere l’informazione, eliminando tutte le parti superflue: da qui nascono diverse forme di codici che rendono più efficiente una trasmissione di dati e riducono gli errori.
Abbiamo così degli algoritmi efficaci, ma con sigle strane, come gli LZ77 e LZ78 (ma che significano solo Lempel-Ziv, cioè i due cognomi degli scienziati scopritori, e 77 da 1977 e 78, da 1978. Semplice), che hanno posto le basi per formati che conosciamo tutti, come le GIF (Graphics Interchange Format), per le immagini in movimento.
Nel 1980 Terry Welch ha fatto qualche modifica a LZ78, e nasce LZW, che viene usato per i modem. Da qui in poi è tutta storia recente, con nomi di formati conosciutissimi (JPEG, ZIP, PNG) che usiamo tutti i giorni, senza conoscerne la storia. E forse nemmeno l’importanza. Questa infografica, per fortuna, colma una lacuna.
Un’infografica realizzata da Commander