NEWS

 
Claude Shannon, una vita per l'informazione

 

Per farla breve e semplificare allo stremo: senza Claude Shannon oggi non avremmo internet. O perlomeno ci troveremmo di fronte un panorama del tutto differente.

Shannon nasce il 30 aprile 1916, in Michigan, negli USA e passa la sua giovinezza nei luoghi natii, cimentandosi con costrutti meccanici, scienza, matematica, radio e telegrafi. Sin da piccolo Thomas Edison è per lui figura eroica e d’ispirazione. Curioso a dirsi, i due furono anche, seppur lontanissimi, parenti.

A nemmeno vent’anni entra all’università, dedicandosi al lavoro di George Boole. Ne esce il 1936, con due lauree triennali, in matematica e in ingegneria elettronica.

Fu però prima al MIT, per il suo dottorato di ricerca, e poi presso i laboratori Bell che Shannon pose le basi per le innovazioni e le fondamentali intuizioni a venire, cominciando a delineare i contorni di quanto finiremo per chiamare “Teoria dell’informazione”.

Molti ed innumerevoli furono anche i contributi ad altri campi del sapere umano. In particolare la crittografia venne sviluppata al fianco delle altre teorie riguardanti la comunicazione, risultando in una progressione del tutto inedita e quanto mai ricca. A fianco di queste attività Shannon portò avanti hobby, invenzioni e curiosità che ancora oggi solleticano tutto il mondo: fu giocoliere, scacchista e inventò una tromba in grado di sputare fuoco!

La sua tesi del 1938, Un'analisi simbolica dei relè e dei circuiti, il saggio in due parti del 1938-39, Una teoria matematica della comunicazione (con Warren Weaver), e La teoria della comunicazione nei sistemi crittografici, del 1949, rimangono tutt’oggi esempi fulgidi di una mente ammirevole e testi fertili anche per gli scienziati e ricercatori d’oggi.

Muore a febbraio 2001.

A farla da padrone, ad ogni modo, resta il fatto che l’idea di “informazione” con la quale ancora oggi ci lambicchiamo e sulla quale abbiamo costruito le nostre reti, internet, computer digitali e molti e diversi sistemi di comunicazione è quella stabilita dalla mente feconda di Shannon.

La teoria dell’informazione, insomma, e l’introduzione di concetti quali quello del “binary digit”, cioè il bit, si sono rivelati un patrimonio importantissimo e una maniera pratica per inventare codice sempre più efficiente, oltre a cercare i limiti di calcolo e processo dei segnali digitali.

Se oggi noialtri possiamo permetterci archivi di dati sempre più massicci e compressioni sempre più elaborate, lo dobbiamo proprio a lui e ai suoi pioneristici ragionamenti.

Pensateci la prossima volta che guarderete su internet un video in alta definizione..

Daniele Ferriero