23 – IMP, mainframe e i pc d’oggi

A metà degli anni ’60, nel mondo universitario la coscienza della necessità di condividere i dati delle ricerche era piuttosto avvertita. La struttura dei centri informatici del tempo prevedeva enormi mainframe, nei quali si concentrava la potenza di calcolo, e piccoli IMP (Interface Message Processor) in grado di ricevere le istanze degli utenti e sottoporle correttamente al mainframe.
Gli IMP erano connessi tra di loro nella cosiddetta IMP subnet, governata inizialmente dal NCP (Network Control Protocol), successivamente sostituito dal TCP (Transmission Control Protocol).
Occorrevano delle regole, condivise tra tutti coloro che volessero aderire a un network: la necessità era quindi di definire dei protocolli unificati, grazie ai quali le comunicazioni sarebbero state non solo fisicamente possibili, ma coerenti.
La NPL (National Physical Laboratory), la rete inglese costituita sin da subito con finalità commerciali (compreso il trasferimento di fondi), doveva garantire la consistenza dei dati inviati. Per garantire i trasferimenti la NPL scomponeva i dati in pacchetti, controllando che l’invio fosse andato a buon fine con le regole del protocollo TCP: era nato il packet switching. Questo fu un passo fondamentale per lo sviluppo di interconnessioni tra reti.
Concepita dall’Institut de Recherche d’Informatique et d’Automatique, la rete francese “Cyclades” stabiliva invece una connessione tra più reti, fondando il paradigma di una inter-net. Gli elaboratori intermedi (ossia dai mittenti e dai destinatari della comunicazione) servivano solo da appoggio per la trasmissione. Reti di questo tipo furono favorite dall’insorgere di standard telefonici quali l’X.25.
Nel 1969 i nodi di ARPAnet erano 4, ma già negli anni ’70 il loro numero crebbe notevolmente. Nel 1983 furono sdoppiate due reti, MILNET per usi militari, e ARPA-INTERNET per la ricerca. La maggior parte dei nodi si trovava negli USA, ma esempi di connessioni a ARPAnet si avevano nel Regno Unito.

L’unione del protocollo TCP con la necessità di indirizzare correttamente i flussi di messaggi, dividendo i livelli fisici e software delle comunicazioni, diede luogo allo standard TCP-IP (ove “IP” sta per “Internet Protocol”). Dal 1974, questo garantì la compatibilità tra le diverse sottoreti.
ARPANET, invece, “moriva” nel febbraio del 1990 con la dismissione del suo hardware, ma al suo posto nasceva Internet.
Il Federal Networking Council stabilì nel 1995 una definizione del termine “Internet”. Esso si riferisce al sistema di informazione globale che è logicamente interconnesso da un address space unico e globale, basato sull’Internet Protocol (IP) o le sue successive estensioni/sviluppi; è in grado di supportare la comunicazione tramite la suite “Transmission Control Protocol/Internet Protocol” (TCP/IP) o le sue successive estensioni/sviluppi, e/o altri protocolli compatibili con l’IP; e fornisce, utilizza o rende accessibili, sia pubblicamente che privatamente, servizi di comunicazione di alto livello stratificati.
Nel 1992 Tim Berners-Lee, un ricercatore del CERN di Ginevra, mise a punto l’idea di ipertesto, che permise di formare il WWW, che comprende l’insieme degli ipertesti pubblicati in Internet. Parallelamente furono creati i primi browser, necessari per la ricerca dei documenti, come Nexus (1991), Gopher e VERONICA (Very Easy Rodent Oriented Netwide Index to Computerized Archives) prima, e come Mosaic (1993) e Netscape (1994) poi.
Nel 1996 gli utenti di Internet erano 10 milioni; diventeranno 200 milioni solo 3 anni dopo, mentre attualmente (2010) le connessioni alla rete delle reti sfiorano il miliardo.

23 – una crescita esponenziale

Il mondo dell’elettronica e della tecnologia informatica dovevano però di lì a breve essere sconvolti da un nuovo manufatto: nel 1947 tre fisici dei laboratori Bell misero a punto il transistor. William Shockley, Walter Brattain e James Bardeen inventarono un dispositivo a stato solido composto da un materiale semiconduttore, che fungeva da rettificatore e amplificatore per la corrente e che sostituì presto le valvole.
L’introduzione dei transistor al posto delle valvole, all’interno del computer, aumentò notevolmente la velocità di elaborazione dei dati e permise di ridurre notevolmente le dimensioni, nonché i guasti.
Il passo ulteriore fu la realizzazione di un certo numero (che crebbe in pochi anni) di transistor sullo stesso supporto. Nel 1958, nei laboratori della Texas Instruments di Dallas, l’ingegnere Jack S. Kilby riuscì per la prima volta a combinare in una sola unità monolitica compatta le funzioni di bobine, transistori, condensatori e resistori, il tutto a partire da un solo materiale, il germanio (sostituito successivamente con il silicio): nasceva il circuito integrato.
Il germanio, così come il silicio, sono dei semiconduttori; si comportano cioè in modo diverso secondo la corrente dalla quale sono attraversati. Così come un diodo, possono essere conduttori o isolanti, semplicemente in funzione delle caratteristiche elettriche dei segnali che li attraversano.
Il transistor non ebbe immediata fortuna negli Stati Uniti, tanto è vero che il primo vero utilizzatore in grande scala di questo dispositivo fu il Giappone, che anzi basò buona parte della sua crescita industriale sulla nascente industria elettronica. Le applicazioni del transistor furono le più disparate, anche se il linguaggio comune registra quelle di maggior impatto: “transistor” per una persona che sia stata giovane negli anni ’60, può semplicemente voler dire “radiolina portatile”.
Si dovrà tuttavia attendere il 1964 per vedere il primo computer a circuiti integrati, l’IBM modello 360, che segnò l’avvento del computer di “terza generazione”. Con questa si passava dalle 2.200 moltiplicazioni al secondo del computer di prima generazione, alle 38.000 della seconda, ai due milioni della terza, con costi che erano scesi di oltre cento volte. Lo sviluppo era vertiginoso: l’ENIAC impiegava tre secondi per moltiplicare due numeri di 23 cifre e un minuto e mezzo per calcolare un logaritmo fino alla ventesima cifra decimale, a fronte rispettivamente dei millisecondi e dei centesimi di secondo della serie 360 IBM.

Sino alla metà degli anni ’50 il batch processing era l’unica modalità di lavoro dei calcolatori elettronici: essi potevano svolgere una sola operazione alla volta, con sprechi di efficienza.
E’ evidente come le operazioni eseguite secondo la logica del flusso continuo (del tutto analogo al principio che governa la catena di montaggio) risultino molto convenienti per tempo impiegato e occupazione della potenza di calcolo del processore.
Le dimensioni degli elaboratori, poi, erano sempre maggiori, con notevole emissione di calore. Si resero sempre più necessari degli ambienti a temperatura controllata, in grado di difendere i componenti elettronici da rotture da stress termico. Ciò, tuttavia, allontanò fisicamente gli elaboratori dai loro utilizzatori, in un momento nel quale gli input erano forniti a mezzo di schede perforate, che spesso potevano portare errori.
Nel 1957 fu realizzata per la prima volta una connessione remota ad un calcolatore elettronico: essa consentì agli utenti di lavorare pur non nelle prossimità fisiche della macchina. Nel contempo, fu realizzato un elaboratore in grado di lavorare non solo per batch processing: non solo si poterono far eseguire diverse operazioni in modo parzialmente sovrapposto, ma soprattutto fu possibile far utilizzare la potenza di calcolo a più utenti contemporanei.

Il 1957 è anche l’anno del lancio dello “Sputnik” (4 ottobre), che portò Yuri Gagarin nello spazio. La paura di una supremazia russa indusse il governo americano alla formazione di un ente, il DARPA (Defence Advanced Research Project Agency), nel febbraio 1958.
Primo progetto perseguito dal DARPA fu la formazione di una rete di elaboratori, utile a:
– accelerare lo scambio di informazioni;
– evitare la replica di queste.
Ulteriore motivazione per la ricerca nel campo delle reti di elaboratori apparve nel 1962, quando la Difesa americana prese coscienza che le postazioni missilistiche situate a Cuba minacciavano il suolo degli USA. Insieme con altre problematiche vi era quella della connessione tra nodi della rete di computer. Questa, basata sulle onde lunghe, in caso di attacco nucleare avrebbe funzionato in modo migliore. La struttura della rete era inoltre ridondata, per resistere alla soppressione di uno o più nodi.

23 – la luce della radio

Guglielmo Marconi realizzò nel 1895 la prima trasmissione a distanza tramite le onde radio e nel 1901 la prima trasmissione del telegrafo senza fili attraverso l’Atlantico). Da tali principi avrà origine la radio, che vedrà le prime trasmissioni regolari solamente nel 1922. Nel 1904 John Ambrose Fleming ottenne il brevetto per il diodo, o valvola termoionica, che sarà di grande aiuto per il miglioramento e in definitiva per la diffusione dell’invenzione marconiana.
Il diodo si basa su di una osservazione di Thomas Alva Edison, che nel 1877 rilevò la presenza di fuliggine all’interno del bulbo di una lampadina. Sin dalle prime sperimentazioni si era capito che un modo per prolungare la vita dei filamenti era di sigillarli in atmosfera povera di ossigeno, quindi in condizione di vuoto il più possibile spinto. Per questo motivo la fuliggine non poteva provenire dall’esterno del bulbo, ma da qualche sorgente interna alla lampadina. Edison eseguì allora dei test, collocando all’interno del bulbo una lamina metallica, e connettendola con il circuito della lampadina, secondo una configurazione variabile.
Nell’esperimento, la lampadina è connessa in entrambi i casi all’alimentazione; nel circuito di sinistra l’elemento metallico all’interno del bulbo è connesso al polo positivo, mentre in quello di destra lo è al polo negativo. Il riscaldamento del filamento produce elettroni (particelle elementari di segno negativo), attratti dal polo positivo e respinti da quello negativo. Nel circuito di sinistra gli elettroni fluiscono così verso l’elemento metallico polarizzato positivamente, dando luogo a un circuito chiuso; nel circuito di destra, gli elettroni, pur prodotti per riscaldamento del filamento, non fluiscono verso l’elemento, che in questo caso è polarizzato negativamente, e li respinge.
La corrente del circuito di sinistra fu rilevata per mezzo di un galvanometro, rappresentato nei circuiti dal cerchio con la freccia all’interno.
Edison immaginò l’invenzione come destinata alla misura di correnti variabili all’interno di un circuito, e al più all’apertura o alla chiusura di un circuito per mezzo dell’ago di un galvanometro ad essa collegato. L’ago, muovendosi per effetto della variazione di corrente, chiudeva o apriva un circuito, fungendo da interruttore.
Avere a disposizione una corrente continua permetteva l’integrazione del segnale, ossia la sua accumulazione, a mezzo di condensatori. Il segnale ricevuto era di bassissima potenza, e il suo accumulo e successivo rilascio ne consentivano l’ascolto in cuffia a mezzo di un ricevitore di tipo telefonico. Ciò permise il passaggio dalla trasmissione di tipo booleano (segnale / assenza di segnale) a una modulazione delle onde: era nata la radiotelefonia.
La valvola funzionava come raddrizzatore, e svolgeva sufficientemente bene questa funzione sia alle basse frequenze della rete elettrica ordinaria, sia a quelle alte proprie della trasmissione senza fili. A maggiore corrente in ingresso nel circuito corrispondeva un suono di frequenza maggiore; così, a corrente minore corrispondeva un suono di frequenza minore in uscita dal telefono.

Il primo passo verso il computer moderno fu fatto tra il 1939 e il 1944 con il Mark I. Si trattava di un calcolatore elettromeccanico a relè costruito presso l’università di Harvard sotto la guida di Howard M. Aiken e con la collaborazione dell’IBM. La macchina misurava 17 metri di lunghezza, 1 metro e 80 di altezza e conteneva 800.000 componenti e 80 km di fili. Essa era ancora lenta poiché funzionava con i relè in uso nelle centrali telefoniche.
Nel 1943 l’esercito degli USA affidò all’università della Pennsylvania la realizzazione di un calcolatore digitale. L’ENIAC (Electronic Integrator And Computer), proponeva innovazioni nell’hardware con l’uso delle valvole, ma soprattutto quella portata dal software. L’uso delle valvole produsse un incremento della velocità fra le 500 e le 1000 unità rispetto al Mark I, ma le dimensioni erano ancora mastodontiche: 30 tonnellate di peso su una superficie di 150 mq e 18.000 valvole all’interno con altissimi consumi (150 kilowatt) e dispersioni di calore.

L’aspetto fondamentale comunque era il software: l’ENIAC fu uno dei primi computer programmabili, predisposto di volta in volta a differenti funzioni; la programmazione avveniva attraverso la sostituzione di cavi e per questo serviva personale altamente specializzato. Il calcolatore fu utilizzato presso il centro di ricerche balistiche di Aberdeen per calcoli di previsioni meteorologiche, progettazione di gallerie del vento, studio dei raggi cosmici ed elaborazione di tavole balistiche.
I progettisti furono l’ingegnere John Prespert Eckert e il fisico John William Mauchly, con la collaborazione del matematico Herman H. Goldstine.

22 – un caso esemplare

La realizzazione, nel 1893, delle fogne torinesi, fu preceduta da una lunga serie di risoluzioni, e di altre contrarie a quelle precedenti, di decisioni in una direzione e di brusche sterzate in senso opposto. Ciò fu determinato, tra l’altro, dalla presenza di due fazioni contrapposte di peso quasi equivalente, che si batterono sino all’ultimo sfruttando sia la sede consigliare sia i mezzi di diffusione delle opinioni (in particolare, i mezzi a stampa, tra cui, oltre alla già citata “L’ingegneria sanitaria” si annovera anche “La gazzetta del popolo”).
Gli antefatti parlano di un primo progetto di canalizzazione doppia stilato sotto Nomis di Pollone nel 1842. La costruzione della rete fu interrotta attorno al 1860, quando si preferì incoraggiare l’utilizzo di pozzi neri, che tra l’altro permettevano l’impiego di molta manodopera.
Con relativo anticipo rispetto alla “rivoluzione batteriologica”, ma in ogni modo dettata dal peggiorare della situazione igienica della città, il 15 novembre 1880 si situa l’istituzione, da parte del Sindaco Luigi Ferraris, di una commissione per lo studio del miglior sistema di fognatura. La commissione, presieduta dall’avvocato Calandra, ebbe come relatore il senatore Pacchiotti, e come estensore del progetto l’ingegner Boella. Il progetto fu anche presentato all’Esposizione Nazionale di Torino del 1884, e la sua discussione in sede di Consiglio comunale iniziò l’anno successivo; tuttavia, la continuazione fu subito bloccata per via di una mozione dell’onorevole Carlo Compans, che chiese un approfondimento degli studi.
La Giunta, già diretta da Ernesto di Sambuy, deliberò quindi il 4 marzo 1885 della formazione di una seconda commissione, incaricando i consiglieri Casana, Ceppi e l’ingegner Velasco, capo dell’Ufficio Tecnico, di portare a conoscenza la Giunta stessa della situazione delle fognature in diverse città europee.
Seguirono anni di relativa quiete, nei quali il dibattito, anche quello condotto dalle colonne delle riviste, si fece meno intenso; si arrivò così al 1887, anno nel quale il Consiglio Comunale deliberò la stesura da parte dell’Ufficio Tecnico di due progetti di massima: uno a canalizzazione doppia ed uno a canalizzazione unica.
L’anno successivo il Consiglio stesso diede la propria approvazione per il progetto di canalizzazione unica, ma ancora una volta le opposizioni di alcuni membri non permisero l’inizio delle opere. Nel 1889, incredibilmente, lo stesso Consiglio mutò nuovamente la propria decisione, propendendo per la canalizzazione doppia.
Urgeva fare chiarezza, e il pretesto fu dato dall’insediamento della nuova Giunta, insediata dopo le elezioni estive. Fu dato carico all’ingegner Ernest Bechmann, che si era già occupato della sistemazione delle fogne di Parigi, di cui divenne responsabile dal 1888, di redigere un progetto di canalizzazione unica. Seguendo il mandato ricevuto dal Consiglio, la Giunta nominò il 21 aprile 1890 un’ulteriore commissione, composta dagli ingegneri Berocchi di Roma, Tagliasacchi di Milano, Delfino di Cuneo, Meano di Torino e del professore d’igiene di Roma, Angelo Celli.
Tale commissione si dimostrò sostanzialmente favorevole al sistema del tout à l’égout, dando così soddisfazione al partito dei monocanalisti.

Parallelamente, la Società degli Ingegneri ed Architetti di Torino aveva pure istituito una commissione, che avrebbe dovuto dare un parere sulla questione delle fogne. Tale commissione si pronunciò per il sistema della canalizzazione doppia. Il dissenso rispetto alla posizione della commissione fu manifestato anche in Giunta, dove nel 1891 tre assessori ingegneri su quattro (Galileo Ferraris compreso) sostennero il progetto di fogne separate.

Il dibattito proseguì, tra esposizioni di pro e contro, proposte serie e meno serie, incomprensioni, errori, stime di costi e velati insulti, all’insegna di lodevoli intenti di alcuni e di una conoscenza frammentaria del problema dimostrata da diversi consiglieri comunali, alcuni dei quali tecnici di primo livello.
Le stime dei costi furono diverse, e diversamente interpretate dai fautori dei due sistemi; analogamente, medesimi fattori furono interpretati diversamente a seconda che si sostenesse la canalizzazione unica o doppia. Tuttavia, ciascuno dei due schieramenti aveva dei punti forti, che richiamava ad ogni nuova descrizione.
In sintesi, il tout à l’égout o canalizzazione unica era considerato dai propri propugnatori come:
• il più economico, per la semplice considerazione secondo cui un canale costa meno di due;
• il più semplice, sia dal punto di vista sistemico sia per le operazioni di manutenzione;
• il più efficiente, malgrado si dovessero mettere in conto spiacevoli fuoriuscite nei giorni di intense precipitazioni.
La doppia¬¬¬¬ canalizzazione era invece presentata con questi aspetti positivi:
• igienicità, dovuta alla chiusura stagna delle acque nere in tubi metallici;
• sicurezza, per la maggior facilità di contenimento di volumi d’acqua eccezionali (gestiti attraverso la messa in comunicazione delle due canalizzazioni);
• profittabilità, perché anche a fronte di una non dimostrata maggior spesa iniziale, permetteva l’uso degli scarichi come concimi.

Per contro, le posizioni opposte si manifestarono anche nell’esposizione dei difetti del sistema concorrente. Sostanzialmente il tout à l’égout era tacciato di scarsa igienicità per le fuoriuscite nel caso di grandi piogge e per il rischio di stagnazione in caso di siccità; la doppia canalizzazione era accusata di considerare come “bianche” delle acque che in realtà erano tanto mefitiche quanto quelle intubate nei canali neri, oltre che di difficile manutenzione. Inoltre, era considerata attuabile solamente in città di dimensioni maggiori di Torino.

Il 1892 vide l’estensione della legge per il risanamento di Napoli alle Amministrazioni comunali che ne avessero fatto domanda entro il gennaio 1894. Esse avrebbero potuto beneficiare di finanziamenti statali per ristrutturazioni cittadine giustificate da importanti motivi igienici (ove qui “igiene” è da intendersi in un senso abbastanza esteso, se è vero che l’apertura dell’attuale via Pietro Micca a Torino fu compiuta grazie alla legge). Ciò provocò un’accelerazione delle attività decisionali, sino a giungere al maggio 1893, quando la vicenda si concluse.
La votazione conclusiva prevedeva l’approvazione del cosiddetto ordine del giorno Pacchiotti, che comportava la costruzione di un unico collettore sulla sponda sinistra del Po, oltre che la connessione ad esso dei canali bianchi e neri. Il risultato vide trenta voti per parte, con Compans unico astenuto. L’ordine del giorno non fu approvato, e la seconda votazione, per alzata di mano, vide una lieve prevalenza della doppia canalizzazione (30 voti favorevoli e 28 contrari). Uno dei sei assenti alla votazione fu proprio Giacinto Pacchiotti, tenuto a letto dalla malattia che di lì a poco tempo lo avrebbe portato alla morte.

22 – nuove figure professionali

Torino provvide tardivamente all’attuazione definitiva della legge sanitaria, poiché grazie ai buoni offici di Pietro Baricco (il teologo Pietro Baricco, autore tra l’altro di una onnicomprensiva guida di Torino, Torino descritta, Torino : Paravia, 1896, fu presidente della Commissione direttrice permanente dal 1851 al 1864. Ricoprì anche gli incarichi di assessore comunale al Servizio scuola e beneficenza e di vicesindaco) fu ritardata di molto l’abolizione dei Consigli di beneficenza parrocchiali in favore dell’istituzione di una sola Congregazione di carità. Ciò, se da un lato permise ai parroci di mantenere la propria posizione preminente nell’amministrazione della sanità a livello zonale, impedì lo sviluppo di una strategia organica di gestione del problema sanitario ed igienico.
Nonostante questo handicap iniziale, la città fu comunque in grado di bruciare le tappe nella formazione delle proprie strutture nel campo, sino ad essere punto di riferimento a livello europeo. Ciò fu dovuto ad una serie di fattori, tra cui di sicura importanza la costituzione della maggioranza a livello consigliare da parte della fazione liberal-progressista a partire dal 1876. Nello stesso periodo l’università torinese incontrava un concreto sviluppo per l’affidamento di cattedre a nomi già prestigiosi, o che avrebbero fatto di Torino il proprio trampolino di lancio (da Serenella Nonnis Vigilante, Igiene pubblica e sanità municipale, in Storia di Torino, vol. 7, Umberto Levra, ed., Torino : Einaudi, 2001, p. 381):

Alla vitalità dell’ateneo torinese avevano dato il via le facoltà scientifiche: nel 1861 Jakob Moleschott era stato chiamato alla cattedra di Fisiologia; nel 1879 questi veniva sostituito dal fisiologo Angelo Mosso; nel 1864 lo zoologo Filippo De Filippi aveva sviluppato le teorie di Charles Robert Darwin, suscitando inevitabili polemiche e contestazioni; nel 1873 Giulio Bizzozero aveva fondato il laboratorio di Patologia generale e introdotto l’uso del microscopio per lo studio delle piastrine del sangue; dal 1876 Cesare Lombroso aveva creato l’istituto di Medicina legale; nel 1878 Michele Lessona, autore del libro Volere è potere, ispirato alle teorie del self-help di Samuel Smiles, proseguiva l’opera di De Filippi. A partire da quell’anno veniva pure attivata la cattedra di Igiene, assegnata a Luigi Pagliani (la disciplina era precedentemente aggregata a quella di Medicina legale).

Che la discussione nel campo della sanità e dell’igiene fosse a Torino più che mai vivace è testimoniato tra l’altro dalla presenza di due riviste, nate quasi negli stessi anni: si tratta de “L’ingegneria sanitaria” e “L’ingegnere igienista”. La prima, nata nel 1890, ebbe come spiriti animatori Giacinto Pacchiotti e Francesco Corradini. “L’ingegnere igienista” nacque invece nel 1897, ma fu solamente a partire dal 1900 che poté avvalersi della spinta di due personaggi come Luigi Pagliani e Giulio Bizzozero. Entrambe confluirono poi nel 1905 a formare la “Rivista di ingegneria sanitaria”.

Gli anni Ottanta furono il decennio nel quale presero definitivamente piede le teorie di Pasteur e Koch, in virtù delle quali si può parlare di “rivoluzione batteriologica”. Esse erano un potente mezzo di spiegazione dell’origine delle malattie, e fu grazie ad esse che si poté pensare alla costituzione o all’ammodernamento delle città così da permettere alla popolazione di vivere in un ambiente che avrebbe mantenuto o condotto alla loro “sanità”.
Esperimenti condotti già negli anni precedenti sotto l’ampio cappello della statistica delle popolazioni – oppure, secondo un’espressione nata verso la fine del secolo, dell’ecografia sanitaria – avevano dimostrato il nesso causale tra condizioni di vita e sviluppo fisico ed intellettuale. Occorreva quindi costruire o ammodernare secondo i nuovi criteri, coniugando conoscenze derivanti dal campo medico con quelle tipiche della scienza ingegneristica, sino alla formazione di una nuova tipologia professionale, che avrebbe fatto parlare di sé sino a tutto il primo ventennio del xx secolo.
Pogliano (Claudio Pogliano, L’utopia igienista (1870-1920), in Franco Della Peruta, ed., Storia d’Italia. Annali. 7: Malattia e medicina, Torino : Einaudi, 1984, pp.618-19) sintetizza bene il “fervore tecnicista” del periodo:

Dall’incrocio fra medicina e ingegneria era nato un nuovo specialismo, insieme con una sotto-disciplina ed uno strato di cultori. I quali si pensavano figli dei “progressi” chimici e batteriologici da un lato, e dei nuovi ordinamenti sanitari dall’altro. All’ingegnere più che al medico sembrò affidata la vita umana, vista l’impotenza terapeutica di fronte ad ambienti malsani. La percezione dei germi aveva sfatato l’inevitabilità della malattia: restava il passo conseguente – “un’immensa compagine di studi e di applicazioni” – capace di attuare schemi preventivi. Gli ingegneri igienisti additavano scuole rigogliose già esistenti all’estero, oppure rivendicavano nazionalisticamente una primogenitura “italiana”: acquedotti e fogne della Roma antica. Non si stancarono, comunque, di volere la ratifica di un loro ingresso nella direzione della cosa pubblica, e di chiedere, per intanto, cattedre obbligatorie nelle scuole d’applicazione; oppure ancora, l’affiancarsi di un ingegnere all’ufficiale sanitario. […] Dovettero esserci, allora, gelosie di corporazione e diffidenze se in ogni loro uscita pubblica gli ingegneri sanitari sentivano il bisogno di definire una sfera propria, confinante ma non invadente il campo dell’igiene.

Agli ingegneri non mancavano le credenziali ufficiali: sin dal 1889 fu istituito presso tutte le scuole d’Applicazione un corso dimostrativo di principi d’igiene. Superato l’esame, il futuro ingegnere avrebbe potuto accedere ai concorsi indetti dalla pubblica amministrazione nel campo dell’igiene. A Torino il corso di “igiene applicata all’ingegneria” era tenuto da Pagliani, autorità riconosciuta in materia, ma comunque contestata dall’ingegner Poggi, il già ricordato progettista della fognatura milanese, che sosteneva l’inutilità di un corso che secondo lui non aggiungeva nulla a quanto già insegnato nei corsi di architettura pratica. Il volano, tuttavia, era stato messo in moto.

Il xix secolo vide il moltiplicarsi dei metodi per lo smaltimento dei rifiuti organici di origine umana e per l’attenuazione del loro potere infettivo. Il fatto che molti di questi sistemi fossero di origine francese è da ricercarsi nel tentativo di porre riparo alle spiacevoli situazioni cui dava spesso luogo la fogna parigina, costituita secondo il classico sistema del tout à l’égout, ossia dalla confluenza di tutte le acque, quelle bianche e quelle nere, in un unico canale sotterraneo. Nelle situazioni normali, grazie ad una sufficiente diluizione garantita dalle piogge, la fogna parigina permetteva il riversamento di tutto il proprio contenuto nella Senna. Tuttavia, nelle rare occasioni in cui una bassa piovosità non permetteva un’adeguata circolazione, i miasmi si diffondevano nell’aria attraverso i tombini a fianco delle strade.
Per questo motivo tali sistemi si interessavano propriamente del primo tratto della fogna, ossia quello che va dal servizio sanitario domestico sino al primo collettore, anche se in taluni casi non era presente alcuna connessione con un sistema fognario centralizzato, poiché lo spurgo era effettuato attraverso pozzi neri o per mezzo di carri che rilevavano un contenitore di varia natura destinato all’accumulo delle materie.
A giudicare dalla quantità, quindi, l’interesse principale non sembrava concentrarsi tanto sulle caratteristiche del sistema fognario nel suo complesso, quanto sul metodo più razionale ed igienico per provvedere allo smaltimento delle deiezioni nelle vicinanze delle abitazioni. In sede di dibattito, però, sarà proprio l’opposizione tra “monocanalisti” e “bicanalisti”, secondo le definizioni introdotte dallo stesso Giacinto Pacchiotti, a tenere banco per diversi anni, con plurimi cambiamenti di rotta che avrebbero portato ad una decisione definitiva solamente nel 1893, ultimo anno utile per usufruire delle agevolazioni della cosiddetta “legge di Napoli”.

22 – le tecniche dell’igiene

Nella seconda metà del xix secolo, ed in particolar modo nell’ultimo quarto di secolo, Torino assunse, in materia d’igiene, un ruolo guida nella penisola, sia nell’attività più squisitamente teorica sia nelle realizzazioni pratiche.
Da un lato, infatti, il primo corso di igiene a livello universitario, tenuto da Luigi Pagliani, fu istituito a Torino già nel 1877, e la città ospitò, prima in Italia, il terzo congresso internazionale d’igiene nel 1880, dopo quelli del 1876 a Bruxelles e del 1878 a Parigi. Il laboratorio d’igiene torinese, dopo una fase embrionale iniziata già sul finire degli anni Cinquanta, ebbe origine istituzionale il 26 ottobre 1865. Ancora, la città subalpina fu sede di ben due riviste, “L’ingegneria sanitaria” e “L’ingegnere igienista”, che nonostante il differente approccio si porranno come importanti poli di aggregazione di idee e discussione sul tema. A ciò si aggiunsero opere a stampa di vasta portata, manuali che comprendevano accezioni di “igiene” spesso piuttosto diverse: si andava infatti dal complesso di condizioni che permettono l’ottenimento ed il mantenimento dello stato di salute fisica dei cittadini, sino al più ampio insieme di requisiti che denotano la sanità in senso lato del cittadino, e quindi non solo quella meramente legata alle condizioni della sopravvivenza, ma anche quella sociale, sino a giungere a quella morale.
Da aggiungere che a Torino svolsero la propria attività figure che rimarranno tra le principali in Italia nel campo dell’igiene; tre nomi su tutti: Luigi Pagliani, Giacinto Pacchiotti e Francesco Corradini. A loro si ascrivono attività sia intellettuali sia realizzazioni all’avanguardia per il tempo, e fu proprio l’unione tra teoria e prassi che li fece emergere come modelli della figura che in questo periodo si intagliò nel panorama delle professioni: l’igienista.
Dal punto di vista pratico, anche i regolamenti igienici della capitale sabauda erano all’avanguardia, tanto che la città divenne punto di riferimento per l’organizzazione delle strutture dedicate alla salvaguardia dell’igiene: per la costituzione dei propri uffici di igiene numerose città italiane si basarono su copie dei regolamenti torinesi. Ulteriormente, il progetto di fognatura della città fu uno dei primi organicamente costituiti, datando del 1840. La fognatura sarà compiuta solo nel 1893, quando sotto l’egida della legge di Napoli la municipalità torinese prenderà finalmente la decisione a proposito del sistema da adottare per la propria canalizzazione.

Il 20 marzo 1865 è data che segna l’estensione a tutto il Regno d’Italia del regolamento sanitario in vigore nello Stato sabaudo da oltre dieci anni. Tale regolamento introduceva sostanziali cambiamenti soprattutto in relazione agli enti preposti alla direzione ed alla gestione della sanità e dell’igiene. In particolare, con la legge sanitaria erano istituite le Commissioni municipali di Sanità, che andavano a rilevare la funzione sino a quel momento svolta dalle Commissioni direttrici permanenti. Oltre a ciò, il servizio sanitario di beneficenza, controllato dalle stesse Commissioni direttrici, era posto sotto l’egida degli Uffici di igiene.
Ciò significò per le Congregazioni di carità la perdita del controllo dei fondi destinati al sostentamento dei più bisognosi; infatti ora spettava all’Ufficio d’igiene la gestione dei certificati di povertà, prima di competenza dei parroci, accusati di accordi con farmacisti, medici ed ostetrici.
Inoltre, secondo la struttura dettata dalla legge sanitaria del 1865, la Commissione municipale di sanità doveva essere composta da (da Serenella Nonnis Vigilante, Igiene pubblica e sanità municipale, in Storia di Torino, vol. 7, Umberto Levra, ed., Torino : Einaudi, 2001, p. 375):

[…] tre consiglieri comunali, due medici ed un ingegnere, nonché dal direttore dell’Ufficio d’igiene (che ricopriva l’incarico di segretario), oltreché da membri aggiunti quali gli assessori all’assistenza sanitaria ed alla polizia municipale, due professori di Medicina, uno di Chimica, uno di Veterinaria, un ingegnere ed un dottore (ambedue membri del Consiglio provinciale di sanità) […]

La figura dell’ingegnere riceveva perciò una prima legittimazione ad essere inclusa tra quelle preposte a difendere la salute dei cittadini. Questa tendenza si sarebbe consolidata successivamente, sino a far considerare da taluni l’ingegnere come la persona più indicata per applicare la scienza al servizio del benessere della collettività.

Alla legge sanitaria del 1865 avrebbe fatto seguito la legge “Sulla tutela della igiene e della sanità pubblica” n. 5849 del 22 dicembre 1888 (legge Crispi-Pagliani). Si trattava di una norma di peso teorico ben maggiore, sia poiché faceva tesoro della cosiddetta “rivoluzione batteriologica” avvenuta in quello stesso decennio, e sia perché legava in modo efficace le esigenze della popolazione alle istituzioni.
La legge si attuava con la formazione di un organismo statale centrale, la Direzione generale di sanità, che doveva farsi carico di filtrare le conoscenze scientifiche in modo tale da poter essere recepite dall’esecutivo, oltre che stendere le linee-guida dell’azione nei campi della sanità e dell’igiene nel rispetto dei vincoli di bilancio imposti dall’amministrazione statale. Discendendo nella piramide, si incontravano poi i medici provinciali, figura che doveva connettere la Direzione generale con i medici comunali, istituiti come “Ufficiali dello Stato”.

Il sistema così costituito si sarebbe fatto carico della igiene dei cittadini, ove con questo termine si volle intendere qualcosa di più ampio rispetto alla semplice nettezza della persona o dell’ambiente in cui essa vive.

La realizzazione delle opere pubbliche esulava dalla giurisdizione delle strutture create dalla nuova legge. Si può parlare di una contaminazione più teorica delle discipline “igieniche” nei confronti delle figure tecniche, in particolare degli ingegneri. L’integrazione compiuta anche e soprattutto grazie all’attività di Pagliani permise lo sdoganamento dei principi igienici che allora si andavano affermando anche all’interno della comunità dei tecnici.

21 – setting of the stage, scatole nere e alberi impossibili

Secondo Abbott P. Usher (A History of Mechanical Inventions, 1929 e 1954), invece, l’atto di intuizione individuale può essere formalizzato come un percorso a quattro stadi: percezione del problema, setting of the stage, atto di intuizione, revisione critica.
Con la locuzione setting of the stage, letteralmente, “sistemare il palcoscenico”, Usher intendeva il contesto nel quale deve avvenire l’invenzione, cioè gli elementi che l’inventore prende come riferimento, e sulla base dei quali avviene l’atto di intuizione, una possibile soluzione del problema che sfocia nella produzione di un prototipo sottoposto a successiva revisione critica. Per capire meglio questo ciclo ricorsivo possono essere di aiuto alcuni esempi. Corradino D’Ascanio ideò la “Vespa” mutuando alcuni elementi dalle costruzioni aeronautiche. Similmente, Gustave Eiffel prima di intraprendere la costruzione dell’omonima torre, si occupò di studi di aerodinamica, che gli servirono per la determinazione di alcune importantissime caratteristiche proprio della Torre. Ancora, il “Flyer” dei fratelli Wright derivava dalle esperienze dei due fratelli come costruttori di biciclette, dalle prove in galleria del vento e da numerosi esperimenti preliminari.
In tutto ciò si inserisce l’importante contributo di Nathan Rosenberg, che nel suo Dentro la scatola nera: tecnologia ed economia (1984) affrontò il problema della “scatola nera”; trattò cioè delle strette interazioni tra economia e tecnologia. Secondo Rosenberg sono poche le aziende che possono permettersi di “pensare a lungo termine”, per diverse cause, che possono essere economiche, e manageriali.
Altro concetto introdotto da Rosenberg fu quello di “squilibrio tecnologico”, che si riferisce al mutamento nel quadro organizzativo che fa sì che un sentiero sia preferito ad un altro; Rosenberg, in altre parole, descrisse degli esempi in cui certe condizioni portano a prendere determinate direzioni tecnologiche.
Da un punto di vista sistematico, gli approcci all’atto di intuizione sono principalmente due, quello riduzionista e quello olistico. Il primo ha tendenza a simulare un evento naturale, come nel caso dell’ala battente che riproduce quella di un uccello, mentre il secondo non si cura di quello che c’è dietro, ma è interessato solo al risultato finale. Ancora, nel primo caso abbiamo un approccio analitico, nel secondo sintetico, cioè guarda al suo insieme; il primo apprende da eventi, dal caso singolo, il secondo invece guarda al modello, e infine se il primo ha un tipo di cultura scientifica, il secondo multidisciplinare, cioè mette insieme elementi apparentemente esterni e non coerenti.
Una teoria molto diffusa è quella per cui la necessità spiega l’esigenza tecnologica.
Secondo George Basalla (L’evoluzione della tecnologia, 1991), invece, le invenzioni sono slegate dalle necessità attuali. Esse sono determinate come nel caso delle mutazioni biologiche, che hanno portato all’affermazione ed evoluzione delle specie più adatte all’ambiente, dal caso stesso.
Questa teoria che vede gli oggetti tecnologici slegati dalla necessità sembra essere avvalorata dal fatto che Marx stesso, ad esempio, nel 1867 apprese che a Birmingham esistevano più di 500 tipi di martelli. Tutto ciò proverebbe che “ogni società, in ogni tempo, possiede un potenziale di innovazione tecnologica superiore a quello che essa può sperare di sfruttare”.
Basalla propose inoltre una nuova visione della relazione causale tra necessità e invenzione, e prendendo spunto dalla vicenda dell’automobile, affermò che è l’invenzione a creare la necessità, cioè dubitando che l’automobile fosse realmente necessaria a priori? Più realisticamente, secondo lo storico, fu l’invenzione dei veicoli a motore a creare la necessità del trasporto motorizzato.
Un esempio contrario è rappresentato dai Mesoamericani, i quali non si servirono dei trasporti su ruote, perché la configurazione topografica della regione e la forza di trazione animale di cui potevano disporre non li rendeva possibili. Questo dimostra che la ruota non è l’unico meccanismo necessario, o utile, a tutti i popoli e in ogni luogo.

Per inciso, secondo alcuni la tecnologia non è nemmeno necessaria per soddisfare i bisogni elementari dell’uomo; il filosofo José Ortega y Gasset la definisce “produzione del superfluo”. La tecnologia è sviluppata non per soddisfare a bisogni dettati dalla natura, ma per coltivare bisogni che sentiamo come tali. I manufatti non rappresentano un insieme di soluzioni nate dalle necessità fondamentali, ma sono le manifestazioni materiali dei modi scelti nel tempo dagli uomini per vivere la propria vita.

Un’ulteriore analogia tra oggetti tecnologici e individui biologici vuole che nel corso dei secoli e dei millenni, senza un disegno precostituito, gli uomini abbiano selezionato i manufatti più idonei a determinati scopi, scartando quelli meno idonei e modificando gradualmente i manufatti superstiti in modo da far svolgere nel modo migliore le funzioni ad essi assegnate.
In questo quadro di evoluzione tecnologica l’inventore singolo fa pochissimo: prende quello che ha e aggiunge un dettaglio, modifica un particolare, quindi l’individuo perde di significato nel segno della continuità, per cui tutto continua rispetto a qualcosa di preesistente.
Continuando nel paragone con il mondo biologico, vi è però una differenza: nella descrizione del primo operata da Basalla manca la mutazione. Un altro studioso, Kroeber, metterà in luce la possibilità di “strani incroci” nel mondo tecnologico, tra tecnologie apparentemente non affini (come ad esempio quelle della bicicletta e dell’aereo), con una rappresentazione ad albero che dà un’immediata idea delle differenze tra mondo biologico e mondo dei manufatti tecnologici.

21 – le teorie di Schumpeter

Joseph Schumpeter modificò questa visione. L’invenzione non è per tutti, non tutti gli imprenditori riescono a vedere l’innovazione migliore in quel dato momento, quindi l’innovazione crea un extra-profitto.
Si introduceva inoltre la distinzione tra innovazione, invenzione e diffusione dell’innovazione. Per semplicità, si può assumere che l’innovazione sia un’invenzione acquisita dal mercato; se ciò non si verifica, l’invenzione si ferma al suo aspetto di nuovo trovato che non ha nessuna finalità sul mercato in quanto non se ne riscontra l’utilità.
Schumpeter introdusse anche una classificazione delle modalità in cui l’innovazione si diffonde all’interno dell’industria. Ne elenca cinque: nuovo prodotto, nuovo processo, nuovo mercato e nuove materie prime; oppure riorganizzando la produzione. Esempio in questo senso di riorganizzazione della produzione è quello della Fiat, che passò dallo stabilimento e dallo schema produttivo ottocentesco di corso Dante, dove è l’isola di produzione a costituire l’elemento fondante dello schema organizzativo della produzione, a quello del Lingotto, nel quale la concezione tayloristica prese piede e fu implementata in modo quasi paradigmatico.
Il filone neo-schumpeteriano cambiò ancora una volta le carte in gioco: il nesso non era più quello tra innovazione e profitto; al contrario, era il profitto a determinare le condizioni per l’azienda tali da consentirle di investire in ricerca e sviluppo, consentendole eventualmente di ottenere un altro extra-profitto. Al contrario, nei momenti in cui le aziende languono non è semplice per queste pensare a investimenti di medio o lungo periodo, quali quelli di ricerca e sviluppo.
Il successivo filone neo-tecnologico mise al centro della realtà produttiva la tecnologia. Prima infatti questa era sempre stata considerata marginalmente; ora invece diventa il driver; l’insorgenza di nuove tecniche danno la possibilità di avanzamento.
Si negava altresì in modo sempre più diffuso l’ipotesi neoclassica di indifferenza delle imprese nei confronti del cambiamento tecnologico; in altre parole, l’assunzione sempre più comune teneva conto di disparità nella visione delle nuove tecnologie, nella loro valutazione e adozione.
Vale la pena di svolgere una considerazione di portata generale. Quanto più una tecnologia è matura, tanto maggiore è la possibilità che l’innovazione sia introdotta attraverso una riorganizzazione aziendale: sempre per rimanere sull’esempio della Fiat, a un cambiamento epocale, legato sì all’organizzazione ma anche al processo produttivo, quale lo spostamento dagli stabilimenti di corso Dante a quello del Lingotto, succedette lo spostamento all’impianto di Mirafiori, dove la riorganizzazione dell’impresa fu l’azione di maggiore profondità. Il modello Toyota ne è un ulteriore esempio: si tratta di un metodo tecnologico molto organizzato, sottoposto a controllo, in cui ogni “granello” è apportatore di innovazione e viene considerato.

La figura dell’inventore nell’antichità non godette di ottima considerazione, soprattutto presso i Greci, che consideravano gretto colui che modificasse lo stato di natura delle cose. Occorrerà attendere quasi la fine del Medioevo perché questa concezione sia completamente rimossa.
Giorgio Vasari, con le sue Vite (Vite de’ più eccellenti pittori, scultori e architettori italiani, da Cimabue insino a’ tempi nostri, 1550), si fece portavoce di quella che si sarebbe poi chiamata visione trascendentalista, secondo cui esiste il genio individuale e l’invenzione è atto del singolo. Ci sono cioè persone più capaci, che hanno più abilità, che hanno quel sensus mechanicus, che consente loro di vedere oltre quando si approccia un problema meccanico.
Un’altra teoria dell’invenzione è quella sociale. Secondo questa c’è sì il singolo, ma la sua azione dipende dall’ambiente in cui si trova, cioè viene riconosciuto un valore sociale a ciò che sta intorno, mentre l’inventore è visto come prodotto della società.
Una posizione intermedia ha come presupposto teorico la scuola psicologica della Gestalt, secondo cui esiste una componente sociale nell’invenzione, ma anche una componente intuitiva, e l’intuito non è una caratteristica del singolo, ma di tutti, sebbene stimolato diversamente in diverse condizioni. Non è neppure una risposta meccanica ad un bisogno, che si ritiene debba accadere necessariamente.

21 – Archimede, Edison e gli altri…

Quando si parla di innovazioni e invenzioni tecnologiche, gli approcci e le teorie che ne trattano sono molto legati al periodo che analizzano; sono in altre parole molto contestuali. Per fare un esempio, parlare di innovazione o invenzione a fine xix secolo, quando la figura di Edison pare essere rappresentativa della possibilità di infinite invenzioni, quasi sempre rispondenti a un bisogno più o meno espresso, in un mondo in cui esistono molte persone perfettamente aderenti alla figura di Archimede Pitagorico. L’invenzione è manifestazione del genio, e questo modello si conferma perché le cose sembrano svolgersi in questo modo.
Un altro chiaro esempio di come le teorie siano dipendenti dalle circostanze è da riscontrarsi nelle teorie economiche, e nel loro cambiamento dopo l’11 settembre 2001, dovuto all’impossibilità di dipingere uno scenario nel quale si hanno segnali (ad esempio la pubblicazione di risultati periodici di un certo bene, commodity o altro; c’è altro in gioco, e le teorie vi si adattano in modo diverso. Le formalizzazioni teoriche, malgrado tutti i tentativi contrari, sono storiche, e pertanto hanno spesso un periodo di validità dovuto a determinate condizioni di contorno.
Sempre in ambito economico, l’invenzione è stata vista come una scatola nera, qualcosa del quale non si conosce l’interno e non si è interessati a studiarlo, del quale non importa il funzionamento, quanto l’esistenza in quanto tale: all’imprenditore è dato solo di scegliere la tecnica migliore.
Ulteriori approcci nel xx secolo che proposero una visione diversa, integrando diverse discipline per spiegare invenzione e poi innovazione.
Da non dimenticare però che, come per ogni teoria ci si riferisce ad un modello ideale, per qualsiasi teoria economica, per quanto legata alla dimensione tecnologica esistono delle assunzioni ideali di cui tener conto, e che verranno esposte di seguito.
Un primo approccio è stato quello classico, il quale portato agli estremi è fondamentalmente il “mondo delle favole”, il mondo perfetto in cui l’imprenditore mette il capitale e lascia gli uomini lavorare; è in altri termini la raffigurazione dell’andamento e del modo di comportarsi delle industrie durante almeno i primi cento anni della Rivoluzione Industriale.
Dall’approccio classico verso la meta del xix secolo si passò a quello neoclassico.
Questo considerava l’invenzione tecnologica come un fattore esogeno, cioè proveniente dal di fuori dell’ambito economico, e come tale non controllabile. L’unico compito dell’imprenditore sarebbe di scegliere la tecnologia migliore, o tutt’al più la combinazione di capitale che gli consente la massimizzazione della sua funzione profitto o soddisfazione. Subentra qui un’assunzione di cui tener conto, quella per cui la scelta viene fatta nella perfetta razionalità dell’imprenditore: l’imprenditore farebbe sempre la scelta migliore per la sua azienda. Questo vale nella maggioranza dei casi, ma possono esserci delle informazioni, dei sistemi di conoscenza, delle condizioni di mercato o delle assunzioni all’interno delle aziende per cui non sempre viene effettuata la scelta migliore.
Un esempio in questo senso: la scelta dell’Olivetti di non optare per la realizzazione di una piattaforma per personal computer, ma per i mini computer, dotati di maggiore capacità di elaborazione ma più costosi e meno largamente diffondibili, si rivelò sbagliata e determinante, soprattutto in un campo come quello informatico dove le barriere all’ingresso (i capitali necessari per l’apertura di una produzione) esistono e sono molto alte.
Sempre secondo l’approccio neoclassico, la struttura produttiva si adattava istantaneamente e totalmente alle tecniche più avanzate. Si assumeva che le scelte imprenditoriali relative alle capacità produttive ottimali fossero fatte sulla base dei prezzi dei fattori e dei prodotti all’interno di uno stato delle tecniche noto.
La produzione era ottimizzata facendo riferimento ad una curva di produzione, funzione di due parametri: il capitale e il lavoro.
In questa curva, detta di isoproduzione, in cui ogni punto corrisponde cioè ad un’uguale quantità prodotta, mentre qualsiasi combinazione di capitale e lavoro necessaria per il raggiungimento della quantità da produrre è rappresentata da ascissa e ordinata del punto.
Insieme a questa curva ne veniva usata un’altra, in questo caso una retta che indica il limite di bilancio, che indica come modificare i parametri di lavoro e capitale spendendo la stessa quantità di capitale. In altre parole, una determinata quantità di prodotto potrà essere prodotta aumentando le macchine di produzione e diminuendo gli operai o viceversa. Dunque questa curva indica il tasso di sostituzione.
Come agire per l’ottimizzazione della scelta? Soluzione del sistema è la ricerca del punto di tangenza tra la curva di produzione e il vincolo di bilancio.
Se si verifica un mutamento delle condizioni, per cui è possibile produrre le medesime quantità con una diversa curva di produzione, normalmente il limite di bilancio si abbassa, mentre l’imprenditore ne è sempre a conoscenza, per cui compie sempre la scelta migliore.

20 – la conquista dei cieli

Solo 6 anni dopo il primo volo del “Flyer”, avvenuto sulla spiaggia di Kitty Hawk il 17 dicembre 1903, nel 1909 Louis Blèriot, con un aeroplano mosso da un motore di 25 CV, riuscì nell’impresa di attraversare la Manica. Dieci anni dopo si sarebbe avuta la prima traversata atlantica (da Terranova all’Irlanda) da parte di Alcock e Brown. In questa fase l’aereonautica ebbe un’accelerazione anche per via dell’uso dell’aeroplano in impieghi bellici: bombardieri, caccia, cacciabombardieri, aerei da ricognizione, con diverse strutture e funzioni, sperimentarono nuove soluzioni e servirono da banco di prova per numerose innovazioni che sarebbero poi state utilizzate anche in campo civile.
Tra la metà degli anni ’20 e la metà degli anni ’30 le migliori prestazioni erano raggiunte dagli idrovolanti, in grado di ottenere record di velocità: mancavano piste geometricamente precise, sicure e abbastanza lunghe, quindi gli idroscali e gli altri specchi d’acqua costituivano un punto di partenza e di arrivo più comodo e con superfici molto vaste. Non è un caso se la prima linea italiana, la Torino-Trieste, con soste tra l’altro all’idroscalo Milano (costruito in epoca fascista) e a Venezia. Gli idrovolanti perdettero l’egemonia dell’aria già prima della Seconda guerra mondiale, surclassati dagli aeroplani “terrestri”.
Il primo motore a reazione fu sperimentato già nel 1910, da Henry Coanda. Il pioniere rumeno capì che un fluido che scorre in una certa direzione lungo un profilo curvilineo, muta il proprio andamento seguendo la forma della superficie del solido, grazie ad un gioco di attriti. L’effetto Coanda purtroppo si ritorse contro il suo scopritore: le fiamme uscite dal propulsore del velivolo avvolsero la fusoliera, alimentate dai gas di scarico del motore.
Nel 1944-45 la Germania introdusse sul campo il primo formidabile caccia a reazione, il Me-262, che era difficile da controllare ad alte velocità e, superata quella di Mach 0.86, rischiava di danneggiarsi. A metà anni ’50 la De Havilland mostrò il primo aereo commerciale a reazione, il “Comet”; la giovane scienza dei materiali non garantiva una fusoliera immune alle alte velocità, per cui l’aereo servì quasi più per i propri errori che per la propria storia di servizio.
All’inizio anni ’60 la tecnologia del volo impattò su altri versanti, come quello sociale. Pietra dello scandalo furono i tre progetti di aereo supersonico civile immaginati rispettivamente da Stati Uniti, URSS e dal binomio Francia/Regno Unito. Se quest’ultimo portò alla realizzazione del “Concorde”, che volò dal 1969 al 2003, anno del suo “pensionamento”, nel caso degli Stati Uniti fu un’azione pubblica a porre la questione del bang sonico prodotto dall’aeroplano. Se Londra e Parigi all’epoca disponevano di aeroporti sufficientemente distanti dai centri cittadini, ciò non era valido negli Stati Uniti, e il progetto, voluto sin dall’amministrazione Kennedy, fu rimesso nel cassetto. Analoga fine ebbe il progetto sovietico, abortito probabilmente per carenza di fondi e per la contemporanea decisione americana. I 20 esemplari costruiti servirono per lo più come fiore all’occhiello delle compagnie nazionali francese e inglese, che dovevano vendere i biglietti a un prezzo enorme per rientrare degli alti costi di gestione del velivolo.
Sin dall’invenzione del radar l’aviazione militare sognò l’aereo invisibile, in grado di non essere tracciato. Il principio è semplice: la superficie dell’aereo deve “spargere” l’onda radar, disperdendola quanto più possibile per evitare che rimbalzi indietro all’emittente. In alternativa, doveva essere in grado di assorbirla.
Le tecnologie stealth (tale è il nome di questa classe di velivoli), pur costosissime, non poterono dare risultati soddisfacenti almeno fino agli inizi degli anni ’80, quando nacque l’F-117 “Nighthawk”. Per ottenere un’invisibilità maggiore furono studiati metodi per ovviare alla rilevazione termica dei fumi di combustione e alla rilevazione delle emissioni elettroniche degli strumenti di bordo, oltre a impiegare materiali schermanti come il Kevlar o l’acciaio inox austenitico (essendo quest’ultimo non ferromagnetico) per diminuire la traccia radar.