19 – il tecnico a scuola

L’instaurarsi del paradigma della “tecnica del tecnico” fu condizione necessaria alla nascita e alla diffusione delle scuole tecniche, che avvenne a partire dalla fine del xviii secolo. Per i paradigmi precedenti la teoria non rivestiva un ruolo fondamentale: la técnica del azar e la técnica de l’artesan erano per definizione legati a schemi operativi nei quali la pratica era assolutamente preponderante. La prima è la cosiddetta “tecnica del caso”, che non possiede alcun fondamento teorico e che si sviluppa per tentativi ripetuti; la seconda si basa sul “saper fare” dell’artigiano, che segue la produzione in maniera verticale dalla materia prima fino al prodotto finito. Quest’ultima può inoltre presupporre una continuazione del mestiere per via genealogica.
La técnica del técnico consiste, invece, nel “saper far fare” e per questo motivo si adatta bene al periodo della Rivoluzione Industriale. Nasceva un nuovo approccio di tipo scientifico rispetto alla produzione, con una susseguente suddivisione delle attività produttive, e la necessità che il tecnico svolga una funzione di coordinazione senza dover realizzare in prima persona il prodotto stesso.
Inoltre, la produzione industriale, nel giro di pochi anni, subì un processo di standardizzazione che implicò l’adeguamento a precise specifiche tecniche nella realizzazione del prodotto, la cui produzione era scomposta in un insieme di passaggi più semplici, secondo un rigoroso schema concettuale. Non fu più necessario che il singolo operatore conoscesse la tecnica necessaria alla realizzazione di tutto il manufatto, come faceva un artigiano; per l’operaio fu sufficiente conoscere come svolgere la singola operazione, nella quale diventava esperto per effetto delle numerose ripetizioni dell’operazione medesima. In questo senso, il primo a raggiungere un tale obiettivo era stato Brunelleschi, che nella costruzione della cupola di Santa Maria del Fiore aveva compiuto un trasferimento di conoscenze in maniera del tutto comprensibile per le proprie maestranze, che non sapevano leggere.
Fu tuttavia il libro a diventare così il mezzo fondamentale di divulgazione della conoscenza durante questo periodo, almeno per quanto riguarda il trasferimento di conoscenze all’interno delle scuole tecniche.
Queste nacquero grazie alla presenza di una sufficiente massa critica e quindi dopo l’avvento della tecnica del tecnico. Anche in questo caso fu l’Inghilterra a precedere gli altri paesi industrializzati con il suo il suo stretto approccio tra teoria e pratica che consentiva la formazione di una classe di tecnici adeguatamente preparati alla realtà industriale. In Francia, così come in Italia, l’aspetto teorico era stato ritenuto a lungo preponderante rispetto a quello pratico. Questo fatto viene sottolineato da Denis Diderot in suo saggio su “Le Arti” del 1752 e ribadito ancora nell’Encyclopédie (1751-1777) a cui Diderot lavorò insieme a D’Alembert; l’opera andava idealmente oltre i teatri di macchine, presentando descrizioni articolate nella parte testuale e rappresentazioni di scene operative, assonometrie, sezioni e spaccati nella parte cosiddetta delle Planches.
L’Inghilterra rappresentava un caso particolare nel panorama internazionale, perché non vi nacquero delle vere e proprie scuole tecniche ma delle associazioni, come ad esempio la “Lunar Society”. Questa associazione fu frequentata da importanti tecnici e scienziati dell’epoca, come ad esempio James Watt ed il suo sodale Matthew Boulton, o come Erasmus Darwin (nonno del più celebre Charles) e Josiah Wedgewood (il nome fondamentale nell’industrializzazione dell’industria delle ceramiche), che discutevano e scambiavano le proprie esperienze sulle nuove tecniche applicate.
In altri paesi come la Francia, invece, fu lo Stato stesso a farsi carico dell’istituzione di scuole tecniche e scientifiche: i principali settori di applicazione furono quello delle infrastrutture (specialmente in campo militare con la fondazione dell’Ecole du Génie Militaire a Mézières, nel 1748), dell’ingegneria navale (l’Ecole Royale des Ingenieurs Constructeurs de Vaisseux, che divenne poi l’Ecole du Génie Maritime, fu fondata nel 1765), e quello minerario (risale al 1748 al 1783 l’istituzione dell’Ecole des Mines).
Durante questo periodo assume grande importanza la figura del geniere, ossia colui che si occupava delle infrastrutture e del loro contenuto tecnologico: in marina si occupava dell’adeguamento dei sistemi di bordo della nave, mentre in ambito terrestre era fondamentale per la costituzione delle infrastrutture in corrispondenza della zona di avanzamento di un esercito, oltre a curarsi della logistica e degli approvvigionamenti e per garantire un’avanzata sicura.

18 – la merce nella città

Una caratteristica fondamentale delle esposizioni è la costruzione di edifici ad hoc per l’evento, come la Torre Eiffel a Parigi, il Crystal Palace a Londra o la Biosfera costruita a Montreal per l’Expo 1967.
Cosi Francia e Inghilterra si avvicenderanno nel corso degli anni nell’organizzazione delle esposizioni universali, che successivamente assunsero un valore ideale; infatti le esposizioni saranno poi organizzate in occasione di ricorrenze come nel 1876 a Filadelfia per il centenario dell’indipendenza e nel 1893 a Chicago per festeggiare i 400 anni della scoperta dell’America e in Austria per i 25 anni di regno di Francesco Giuseppe. Nel 1900 la Francia organizzò un’esposizione per trarre un “bilancio” complessivo del secolo, infatti in ottica puramente positivista l’entrata nel xx secolo segnava la scienza e la tecnologia e conseguentemente anche l’uomo in maniera determinante. Fu deciso inoltre che le esposizioni universali dovevano avere un certo intervallo di tempo le une dalle altre perché altrimenti non c’era una massa critica sufficiente tale da giustificare una nuova esposizione e il conseguente investimento economico.
Le esposizioni furono l’occasione per progettare delle città “ideali” (ridefinizione delle aree cittadine anche in maniera forte) e le infrastrutture cittadine risentirono di tutta questa vitalità in modo positivo (in occasione dell’esposizione parigina del 1900 fu inaugurata la prima linea metropolitana) e si ebbero anche realizzazioni curiose per l’epoca: le scale mobili (Parigi 1900), ascensori idraulici (Parigi 1867) o il “trottoir roulant” (cioè un marciapiede semovente).
Il grande entusiasmo, però, si placò completamente con lo scoppio della Prima guerra mondiale.
A fronte di un’ideale di universalità le esposizioni furono caratterizzate da un’attenzione particolare al paese ospitante e alla sua industria; tant’è che i padiglioni spesso subivano una doppia suddivisione: sia per classi d’interesse ma anche per nazionalità; il primo e forse più famoso esempio di ciò è il palazzo dell’esposizione parigina del 1867 (progettato da J. B. Krantz).
Il presupposto delle esposizioni universali è quella di mostrare al mondo tutto ciò che in quel momento offre la migliore tecnologia; proprio per questo già a partire dall’esposizione parigina del 1855 fu ideata una struttura ibrida (ferro e vetro per la copertura e mattoni per la struttura) dove adibire l’esposizione; fino a arrivare all’utilizzo di gesso, pannelli policromi,colate di staff. Così i palazzi che dovevano essere l’emblema delle esposizioni e che incorporavano anche in maniere discutibile tutte le istanze tecniche, scientifiche e architettoniche divennero un pot-pourri.
Ebbe così il sopravvento l’eclettismo, cioè i padiglioni adibiti alle esposizioni non seguivano un unico stile anzi erano una sintesi di culture diverse, ottenendo uno stile composito; l’intento era quello di impressionare, attrarre e stupire il visitatore. Le esposizioni, quindi, erano un elemento di rottura molto forte rispetto al xviii e xix secolo, perché in precedenza non vi era mai stato un distacco così netto dalla concezione precedente. Successivamente per motivi logistici le esposizione furono dislocate in diversi siti.
La struttura ideale delle esposizione fu gradatamente ampliata a causa della crescita delle tecnologie e la loro differenziazione (dai 4 gruppi dell’esposizione del 1851, agli 8 gruppi suddivisi a loro volta in 30 classi del 1855 si giunse nel 1867 a 10 gruppi e 95 classi suddivisi secondo i bisogni fisici e intellettuali) ed in alcuni casi l’organizzazione seguiva la dislocazione dei siti, invece di imporsi ad essa (come a Filadelfia nel 1876).
Nonostante queste esposizioni fossero gravose dal punto di vista umano ed economico divennero il luogo principale dove presentare per la prima volta al grande pubblico le invenzioni per un duplice motivo: la grande visibilità che ormai le esposizioni avevano nell’ambito socio-culturale dell’epoca e anche perché vi erano dei premi in denaro che andavano alle invenzioni vincitrici dei propri settori.
Nel corso delle varie esposizioni furono presentate per esempio il telefono, il fonografo, la lampadina elettrica, l’ascensore idraulico, il motore a gas, la dinamo, l’alternatore, il trasformatore. Le esposizione erano inoltre il momento ideale per tenere dei congressi perché la presenza di innovazioni e di tecnici favoriva l’organizzazioni di incontri, che in alcuni casi si dimostrarono fondamentali; nel campo della meteorologia molti standard furono decisi in congressi nati in concomitanza alle esposizioni. Addirittura si ha un esempio in cui l’esperimento fu condotto in concomitanza all’esposizione e si ebbe anche il relativo congresso per dimostrare la possibilità di trasmissione di energia elettrica tramite generatori a grande distanza; l’esperimento fu realizzato a Torino nel 1884 nella sezione internazionale di elettrotecnica dell’Esposizione Generale Italiana (diretta da Galileo Ferraris) da Lucien Gaulard (inventore) e John Gibbs (finanziatore).
Sempre per il medesimo obiettivo di connotare fortemente le esposizioni furono costruite numerose attrazioni e divertimenti, che portarono Walter Benjamin a dire: “Le esposizioni mondiali trasfigurano il valore di scambio delle merci; creano un ambito in cui il loro valore d’uso passa in secondo piano; inaugurano una fantasmagoria in cui l’uomo entra per lasciarsi distrarre. L’industria dei divertimenti gli facilita questo compito, sollevandolo all’altezza della merce.”

18 – dai prodotti alla merce

Le esposizioni sono un prodotto tipicamente ottocentesco, discendendo direttamente dalla prima rivoluzione industriale e dai valori socio-economici e simbolici della piazza-mercato.
Le esposizioni sostituiscono i teatri di macchine (genere letterario comparso intorno al xvi sec.), cambiando anche il pubblico che è ad esso dedicato; infatti si passa dopo la metà del xviii secolo dai teatri di macchina, prima espressione di libri stampati ma ancora per una ristretta cerchia di pochi e fortunati eletti, alle esposizioni che ebbero come obiettivo il coinvolgimento delle massa e raggiunse la massima risonanza nel xix secolo.
Le esposizioni sono dei grandi insediamenti territoriali adibiti alla pubblicazione delle nuove tecnologie, nelle quali si dedica anche delle aree alla sperimentazione dei dispositivi necessari al rapporto acquirente-consumi (réclame, attrazioni, grandi magazzini).
La prima esposizione avvenne in Francia subito dopo la rivoluzione francese, poiché proprio nel 1791 furono abolite le rigide regole delle corporazioni, favorendo di fatto la maggiore circolazione del sapere contro l’ostruzionismo imposto da quest’ultime.
In quel periodo in Francia furono inoltre fondate l’Ecole Polytechnique (istituzione nata a Parigi che formava ingegneri civili e industriali con un inquadratura militare e che coniuga, secondo la cultura e la concezione del xviii secolo, l’insegnamento tramite non solo la scuola d’applicazione ma anche il museo), il Conservatoire des Arts et Métiers nato con la stessa impostazione dell’Ecole Polytechnique e il Bureau des Longitudes dove lo studio dell’esplorazione era affrontata in maniera tecnologica. La concezione dell’epoca, come detto precedentemente, dava notevole importanza al museo, perché era visto come il luogo dove attraverso lo studio del passato si potesse trarre ispirazione per il futuro ed un apprendimento reale.
La prima esposizione nazionale francese si ebbe nel 1798, voluta dallo Stato, fortemente presente nell’economia, come segno di opposizione al predominio industriale inglese e di una forte identità nazionale. Tra il 1798 e il 1849 si tennero a Parigi ben 11 esposizioni con un aumento da 110 a oltre 4000 espositori segnale forte e tangibile dell’industria nascente in Francia. Le esposizioni divennero un elemento di riconoscimento ma anche un impegno molto gravoso dal punto di vista umano e soprattutto economico visto che le esposizioni avevano una durata media di sei mesi.
Inizialmente gli imprenditori inglesi non vedevano la necessità di promuovere i propri manufatti, in quanto la loro economia era già molto solida e un passo avanti rispetto a tutte le altre grandi potenze europee ma intorno al 1840 la Royal Academy, la Royal Agricultural Society e la British Society for the Advancement of Science organizzarono le esposizione di Londra (1848) e Birmingham (1849) e poi anche una simile in Irlanda.
Queste prepararono il terreno per la Great Exhibition, che si tenne nel 1851 a Londra, voluta fortemente dal principe Alberto e alcuni privati (tra cui Cole e Russell) ed ebbe una risonanza mondiale. Già nel 1849 il principe Alberto e alcuni imprenditori fissarono i caratteri fondamenti: lo scopo dell’esposizione, la divisione in 4 sezioni (materie prime, macchine, prodotti manifatturieri e belle arti), l’Hyde Park (centro di Londra) come luogo e i sistemi di premi e ricompense per attrarre e così aumentare il numero dei partecipanti all’esposizione. Nel 1850 fu scelto il Crystal Palace ideato da John Paxton, tra le 233 proposte, come luogo dove organizzare l’esposizione ma subito sorsero dubbi sulla stessa possibilità costruttiva poiché non vi erano grossi paragoni con edifici simili ed inoltre fu definito come la “mostruosa serra”.
Il Crystal Palace aveva dimensioni enormi, fu costruito rapidamente in sole trentanove settimane grazie alla struttura portante metallica, che destava non poche perplessità, e copriva ben settemila metri quadrati di esposizione; proprio per queste sue enormi dimensioni fu poi spostato nel 1853 a sud di Londra dove però bruciò nel 1936.
L’esposizione durò sei mesi con oltre sei milioni di visitatori, con un notevole profitto che servì a finanziare delle opere pubbliche.

17 – pronto, signorina?

Inizialmente la commutazione, ossia l’azione del mettere in comunicazione due apparecchi telefonici, era svolta manualmente da un operatore umano, la “centralinista” o “telefonista”.
La centralinista, che si trovava in una centrale apposita, aveva il compito di rispondere a un generico utente A che chiedeva di essere messo in comunicazione con un utente B; ella compiva questa operazione connettendo sul pannello posto di fronte a lei il doppino proveniente dal telefono di A con quello di B.
Questo sistema ovviamente risultava avere diversi problemi: innanzitutto subiva gravi rallentamenti, nonostante ci fossero più centraliniste in parallelo, nei casi in cui gli utenti della telefonia aumentavano in numero (si badi che le connessioni possibili tra due utenti qualsiasi aumentano rapidamente all’aumentare del loro numero) e si prestava ad abusi e violazioni sulla privacy.
Quando un utente richiedeva di essere messo in contatto con una persona in un altra città c’era bisogno di un collegamento di diverse centrali.
Si deve a Almon B. Strowger la realizzazione del primo commutatore automatico nel 1888, che smistava le chiamate senza necessità di un operatore. Curioso è l’aneddoto che portò all’invenzione di questo sistema: Strowger, proprietario di un’agenzia di pompe funebri, sospettava che la centralinista del paese, moglie di un suo concorrente, passasse al marito le chiamate dirette alla sua ditta.
Il dispositivo elettromeccanico di Strowger, detto selettore, cominciò tuttavia a diffondersi solo a inizio del xx secolo.

Il telefono fu dotato di un disco a dieci fori (disco decadico), uno per ogni cifra; ogni utente aveva assegnato un numero di telefono pubblicato su elenchi (ancora oggi in uso).
Per chiamare l’utente B, l’utente A doveva comporre le singole cifre del numero di B lasciando girare il disco per ogni cifra; la rotazione del disco inviava un segnale elettrico alla centrale, che in base ai segnali elettrici ricevuti faceva ruotare un selettore meccanico, formato da un asse centrale verticale che poteva girare su se stesso e che portava lamelle metalliche in un certo numero e con una certa conformazione geometrica. La prima cifra composta con il selettore faceva innalzare o abbassare l’asse pivottante; la seconda disponeva le lamelle in corrispondenza di una certa decina di lamelle fisse (disposte radialmente sulla circonferenza interna del selettore), per poi abbassarsi e stabilire un contatto una volta effettuato un altro spostamento angolare all’interno della decina di lamelle in funzione del numero composto con il disco decadico.
Questo tipo di commutazione restò in uso fino agli anni Sessanta e Settanta del xix secolo, quando cominciarono ad essere usate tecniche di commutazione basate sull’elettronica e sul computer che oggi hanno completamente soppiantato la vecchia commutazione elettromeccanica.
La rete principale di commutazione è chiamata rete di distribuzione, ed è quella alla quale sono collegati i singoli telefoni; le centrali sono collegate a loro volta da centrali di transito, che vanno a costituire la rete di giunzione.
Oggi i collegamenti tra le stazioni sono quasi completamente realizzati in fibre ottiche, ad eccezione delle zone più periferiche che sono collegate con ponti radio.
Il cavo di rame è tutt’ora in uso per collegamenti tra telefono singolo e centrale.

17 – cavi, carbone e campionamento

Nel 1850 fu posato il primo cavo subacqueo internazionale del telegrafo fra Dover, nel Regno Unito, e Calais, in Francia.
In quello stesso periodo Elisha Otis inventò il freno di sicurezza dell’ascensore, che lo rendeva ragionevolmente sicuro per un uso anche da parte di utenti umani. Otis dovette dimostrare in prima persona, tagliando le corde dell’ascensore sul quale si trovava, il funzionamento della propria invenzione di fronte alla diffidenza delle persone.
L’Otis Elevator Company fu la creatura di Otis, e ancora oggi molti ascensori riportano sulla targhetta riassuntiva dei dati caratteristici il nome di quest’ultimo.
Nel 1854-66 Cyrus Field compì quattro tentativi di trasmettere con un cavo transatlantico, sino al successo.
Nel 1869 Charles Dowd propose le zone di tempo standard al fine di evitare gli incidenti ferroviari che erano in aumento come l’utilizzo dei treni per trasporto non più solamente dei, ma anche delle persone.
Le zone solitamente rispettavano i confini delle nazioni, ad accezione di quelle molto vaste come gli USA che furono divise in 4 parti.
Attraverso il lavoro di Sandford Fleming, l’idea fu accettata e le zone di tempo standard furono accettate universalmente con un trattato stipulato nel 1884.
Nel 1876 Alexander Graham Bell inventava il telefono. Parallelamente a lui, l’ingegnere Elisha Gray ne realizzò un altro esemplare. Le domande di brevetto di Gray e Bell raggiunsero l’ufficio dei brevetti lo stesso giorno, ma fu Bell a ricevere il brevetto; in seguito, l’azienda di Gray si trasformò nella Western Electric Manufacturing Company, che fu il braccio operativo dell’impero telefonico di Bell.
Nel 1877 Thomas Alva Edison inventava il fonografo, che per quanto poi soppiantato dal grammofono, mostrò una nuova possibilità: la registrazione e il successivo ascolto di suoni.

Tra il 1840-1860 il sistema ferroviario andava sviluppandosi negli Stati Uniti e in altri paesi, con problemi riguardanti il sistema che portavano a provocare incidenti. La causa principale di ciò era la scarsa comunicazione e la mancanza di precisione nella determinazione dell’ora.
In abbinamento alla linea ferroviaria fu così posto il telegrafo, con il quale il cammino ferrato visse in una sorta di simbiosi, che da un lato rendeva la manutenzione della linea telegrafica, e dall’altro consentiva una tempestiva informazione sugli orari dei convogli. L’unica avvertenza era considerare correttamente i cambiamenti d’ora cui andava incontro un treno che attraversava secondo una linea est-ovest (o viceversa) lo stato americano.

I primi esperimenti del telefono risalgono al 1854 da parte di Charles Borseul e Johann Reis, che nel 1861, tramite i suggerimenti del primo, riuscì a costruire un primo microfono a diaframma, che vibrando apriva un circuito elettrico.
Il problema principale per la costruzione del telefono era campionare il segnale originario in maniera precisa, ovvero trasformare le onde sonore della voce in impulso elettrico.
Nel 1876, grazie a Bell e Meucci, si riuscirono ad avere i primi telefoni efficaci.
I primi esemplari erano basati su deboli correnti elettriche che per la pressione della voce su una membrana, in un avvolgimento di filo sottile immerso nel campo magnetico di una calamita, non potevano percorrere molta strada; inoltre i sistemi avevano anche problemi sia in ricezione che in trasmissione.
La situazione migliorò notevolmente con l’utilizzo delle membrane vibratili, che adeguavano il proprio stato fisico in relazione al segnale di ingresso, traducendo in una vibrazione proporzionale il volume del tono. La vibrazione delle membrane metteva in movimento i granuli incapsulati di carbone che si trovavano in una capsula adiacente; i granuli del carbone formavano un contatto labile, ossia variabile secondo la disposizione spaziale del carbone medesimo.
I più importanti miglioramenti in questo senso si devono a Thomas Edison, che nel 1878 brevettò il proprio microfono a resistenza variabile.
Con il tempo il telefono andò via via a completarsi con diversi miglioramenti; una delle prime modifiche fu l’introduzione di una suoneria che avvertiva il corrispondente dell’intenzione di comunicare. Inizialmente si trattava di suonerie azionate dalle pile che alimentavano il telefono, mentre successivamente si passò alle suonerie polarizzate, che funzionavano tramite la corrente alternata generata da un piccolo generatore mosso da una manovella.
Si vide anche l’introduzione dei ganci di commutazione, il cui funzionamento prevedeva due situazioni: quando la cornetta era agganciata al gancio i fili erano commutati sulla suoneria, pronta così ad avvisare per una chiamata; quando poi si rispondeva alzando la cornetta, i fili commutavano sul circuito microfonico.
Bell si accorse subito che la grande diffusione del telefono fu dovuta al fatto che non erano richieste particolare conoscenze tecniche per utilizzarlo come era invece per il telegrafo.

Aliasing: E’ il fenomeno per il quale due segnali analogici, nell’elaborazione dei segnali, possono diventare indistinguibili se la campionatura avviene con frequenza quasi pari a quella del sistema.
A partire da punti campionati posso far passare più di una curva, portando così a un errore di campionamento.
Regola importante in questo senso è quella di Nyquist, per la quale la frequenza di campionamento minima per evitare il fenomeno dell’aliasing è almeno doppia di quella propria del segnale che deve campionare. Nell’immagine, le due curve, aventi frequenza 0,5 e 3,5 kHz, hanno la stessa ampiezza nel momento in cui vengano campionate ogni 0,25 ms (ossia con frequenza pari a 4 kHz); se invece l’intervallo di campionamento si abbassa a 0,125 ms (con frequenza pari a 8 kHz), i due segnali saranno interpolati e interpretati in modo diverso.

17 – le comunicazioni dalla guerra di Troia alla guerra di Crimea

I primi metodi di comunicazione sfruttavano la propulsione animale, in particolare quella dei piccioni, tecnica usata sin dal iii millennio a.C. in Egitto. Questo metodo era considerato più sicuro rispetto ad altri per il fatto che, oltre ad essere veloce, era non tracciabile né sistematico, in quanto non si poteva prevedere in che momento sarebbe partito e con esattezza quale rotta avrebbe seguito il piccione. Per contro, essendo basato su di un animale, non era totalmente affidabile.
All’inizio del ii millennio a.C., sempre in Egitto, iniziarono a muoversi i primi corrieri.
I primi segni di un nuovo modo di comunicare si ebbero a Troia, già dal xii sec. a.C., con l’introduzione di segnalazioni luminose tramite torce. Questo tipo di comunicazione necessitava di un codice, ovvero di segni prestabiliti riconoscibili a chiunque. Inoltre, si tratta di un mezzo di comunicazione nel quale il mezzo è anche il portatore del messaggio, e non solamente il corriere (carrier).
Nel v secolo a.C. in Persia fu introdotta la posta a cavallo e la comunicazione tramite bandiere in Grecia (tuttora in uso marittimo).
Per lungo tempo la trasmissione a distanza dei segnali fu concepita attraverso sistemi visivi, sino all’invenzione del telegrafo classico, utilizzato sino all’avvento delle comunicazioni radio.

Un tipo di telegrafo ottico (come ad esempio quello svedese) si basa su una griglia di punti luminosi che possono essere resi visibili oppure no, dando luogo alla rappresentabilità di tanti segnali quanti sono le combinazioni degli elementi binari (2^n, ove n è il numero di elementi).
Nel 1793 Claude Chappe, assieme ai suoi fratelli (e all’orologiaio Breguet che lo aiuterà nel costruire il sistema di pulegge necessarie per manovrare il sistema), sviluppò un telegrafo che rese possibile la comunicazione, e quindi il collegamento, tra gli estremi dell’impero napoleonico. Il telegrafo Chappe non prevedeva emissioni di luce, ma di bracci mobili posti in determinate posizioni.
Il sistema è a bracci mobili: vi è una barra orizzontale principale, il regolatore, ai cui estremi sono fissate altre due barre detti indicatori.
A garantire la segretezza del messaggio, gli operatori intermedi conoscevano solamente parte del codice, e il messaggio era decodificato solo all’inizio e alla fine del percorso.
Nella prima versione del 1791, il sistema di trasmissione Chappe prevedeva l’uso di due pendoli sincronizzati, che compivano l’handshaking per mezzo di segnali sonori od ottici.
La rete di comunicazione in Francia era tipicamente a stella: dalla capitale partivano le diramazioni che permettevano di collegare il territorio: verso ovest, sino a St. Malo, a Brest, a Rennes e a Nantes; verso sud-ovest, sino a Bayonne passando per Tours e Bordeaux; verso sud, sino a Marsiglia con biforcazioni verso Narbonne e Tolone; verso est, sino a Strasburgo; infine, verso nord-est, sino a Calais via Lilla.

Nella telegrafia Chappe vi erano diversi segnali convenzionali, tra cui:
– inizio / fine della trasmissione; i telegrafi Chappe compivano cioè un vero e proprio handshaking, il processo attraverso il quale due dispositivi, via software o hardware, stabiliscono le regole comuni, ovvero la velocità, i protocolli di comunicazione, di criptazione e di controllo degli errori. Ad esempio, prima di iniziare una connessione tra due computer si deve impostare questa procedura. Il suono prodotto dal modem nella fase di connessione ad Internet corrisponde proprio a questa fase di inizializzazione della comunicazione;
– sospensione delle trasmissioni per un’ora / due ore;
– sincronizzazione, per permettere alle stazioni lungo la linea del telegrafo di regolare i propri orologi;
– problema secondario, a indicare un piccolo problema con il telegrafo, o l’assenza provvisoria dell’operatore;
– problema primario, a indicare un problema più serio che blocca il telegrafo.

A ogni posizione degli indicatori era assegnato un diverso significato, con regole ben precise per evitare equivoci di comprensione.
In questo senso, ponendo che gli indicatori potessero essere ruotati di 45°, le possibili configurazioni del sistema erano pari a 256 (8 posizioni per ciascun indicatore, e 4 per il regolatore); successivamente furono escluse le posizioni che potevano creare equivoci e quelle riservate alle indicazioni speciali; ne rimanevano in ogni caso tra 92 e 94 per i dati.
Il sistema Chappe non necessitava di fili o reti, e fu così possibile utilizzarlo come sistema portatile (fu utilizzato nella guerra di Crimea del 1855).
Con il tempo furono introdotti vari miglioramenti, tra cui l’introduzione di stazioni ausiliarie in caso di visibilità minima; furono aumentate le dimensioni del regolatore e, secondo quanto suggerito dal matematico Gaspard Monge, fu costruito un nuovo trasmettitore a 7 bracci in luogo di 2, ciò che innalzava la qualità della comunicazione.

16 – non solo amici dei minatori

Col crescere della complessità cresceva anche il problema del controllo dell’ottimizzazione dei tempi di ogni singolo ciclo. Basti pensare che in una macchina come quella di Newcomen in ogni ciclo dovevano essere aperte e poi richiuse decine di valvole in tempi ben stabiliti con un ordine ferreo e inviolabile. Se tali rigide regole di precedenza e sincronismo fossero state trasgredite non solo la macchina non avrebbe funzionato ma si avrebbe rischiato la compromissione dell’intera struttura per non dire l’esplosione dell’intero stabilimento. Ecco perche si cercò sempre più di automatizzare il sistema di apertura e chiusura delle valvole con gli automatismi propri del ciclo della macchina.
Questo tipo di ottimizzazione consenti poi la vendibilità del “prodotto-macchina” come standard e riproducibile praticamente in serie, aprendo cosi un nuovo tipo di mercato.
Sistemi di apertura e chiusura delle valvole per l’immissione e lo scarico del vapore (ed acqua) erano automatizzati attraverso il moto dell’asta della pompa d’iniezione sincronizzata con il moto del bilanciere. La possibilità di tale automatismo, non esistente in origine, fu consigliata da un giovane operaio addetto alle aperture e chiusure delle valvole, Humphrey Potter: questi collegò con delle corde le due valvole all’asta in moto con il bilanciere e se ne andò a giocare con gli amici, avendo reso automatiche tali operazioni.
La tenuta dello stantuffo era realizzata mediante rivestimento del medesimo con del cuoio reso a tenuta d’aria mediante il rigonfiamento provocato da acqua situata nella parte superiore dello stantuffo, ottenendo una buona soluzione ma ancora lontana da una buona tenuta. Il tutto era di notevoli dimensioni: l’altezza del solo cilindro poteva arrivare quasi ai 4 metri. Il bilanciere realizzava 12 oscillazioni al minuto in ciascuna delle quali sollevava 45 litri d’acqua da 46 metri di profondità mediante l’uso di una serie di pompe. La sua potenza si poteva stimare intorno ai 5 cavalli vapore. Tale macchina ebbe un gran successo ed in sessanta anni se ne fabbricarono oltre 120 esemplari.
Culmine tecnico per la costruzione di macchine a vapore fu raggiunto da James Watt che con la sua macchia riuscì a ottimizzate al meglio i principi della termodinamica in una struttura dal alto rendimento e dalla gestione semi-automatica.
I principi di funzionamento della macchina possono essere così riassunti: Il vapore prodotto dalla caldaia entra nel cilindro e solleva il pistone (in tale fase la valvola B è aperta e la A è chiusa). Appena il pistone è arrivato alla sommità del cilindro si chiude B e si apre A: una pompa aspira il vapore dal cilindro. Il cilindro scende in basso ad opera della pressione atmosferica (il cilindro mosso dal solo vapore sarà in un modello di macchina successivo). Il vapore aspirato va nel condensatore per ritornare allo stato liquido. Si riapre la valvola B e si richiude la A per iniziare un nuovo ciclo. Nel frattempo l’asta del pistone compie lavoro attraverso l’oscillazione del bilanciere che aziona la pompa della miniera. Il bilanciere, come lavoro secondario, aziona anche la pompa che aspira il vapore dal cilindro.
Watt non si limitò a sfruttare al meglio la potenza di un ciclo, ma riuscì a raddoppiare tale potenza accoppiando due cicli; regolò altresì il funzionamento della macchina in maniera automatica con una valvola tarata su valori soglia: il governor.
Nel 1782 Watt realizzò la macchina a doppio effetto, che in pratica raddoppiava la potenza della macchina semplice a parità di cilindrata. Si trattava di immettere il vapore alternativamente sulle due facce dello stantuffo. In tal modo si abbandonava l’intervento diretto della pressione per far scendere lo stantuffo medesimo e si apriva alla possibilità di macchine con cilindro non più necessariamente verticale. I problemi con il doppio effetto erano legati al trasferimento del moto al bilanciere. La catena non era più utilizzabile; ora serviva un meccanismo rigido. Watt risolse brillantemente anche questo problema con il sistema detto parallelogrammo articolato o a tre leve. Infine Watt realizzò una valvola regolatrice centrifuga (aggiunta nel 1788), accoppiata con un meccanismo che regolava l’immissione del vapore (ancora il governor) per mantenere la macchina a velocità costante.
Il regolatore di Watt faceva accelerare la macchina se rallentava per il troppo carico o la faceva rallentare dopo un’accelerazione dovuta a diminuzione di carico. Se la velocità della macchina aumentava le due sfere si divaricavano e, per mezzo di leverismi, facevano chiudere parzialmente la valvola a farfalla. La quantità di vapore che giungeva nel cilindro diminuiva e la macchina rallentava. Se la macchina ritardava, si verificava esattamente il contrario.
Il governor forniva anche un’idea qualitativa del lavoro compiuto dalla macchina, ed anche visivamente rendeva conto della velocità di operazione della medesima: più si sollevavano le palline, nel moto rotatorio che competeva loro, maggiore era la velocità della macchina.
Il governor è un esempio di feedback, in una macchina che si autoregola e autogestisce: i giri motore a valle influenzano la chiusura della farfalla; in altre parole, l’uscita della macchina influenza l’ingresso.

16 – padroni del vapore

Dal xviii secolo l’energia tratta dal carbon fossile poté fornire, grazie alla macchina atmosferica di Newcomen, pur con una dispersione straordinaria e rendimenti minimi (1%), un primo apporto di energia meccanica.
Dal 1780, quando i materiali a disposizione lo permettono, prese le mosse la vera rivoluzione energetica. Fu cosi che Papin, dopo aver inventato la pentola a pressione qualche anno prima, arrivò a mettere a punto la prima macchina a vapore degna di questo nome, capace di produrre una rilevante quantità di energia dal riscaldamento di una certa massa d’acqua.
Per il funzionamento della macchina, si deve disporre dentro il cilindro metallico un poco di acqua. Il pistone superiore è spinto verso il basso in modo da essere a contatto con l’acqua (l’aria che è nel cilindro fuoriesce da un piccolo foro lasciato nel pistone, foro che si richiude quando il pistone è sceso completamente). A questo punto si accende un focolare al di sotto del cilindro; il vapor d’acqua, vincendo la pressione atmosferica, solleva il pistone fino alla sommità del cilindro. In alto il pistone è bloccato da appositi ingranaggi per permettere di togliere il focolare con le seguenti successive conseguenze: raffreddamento del vapore, sua condensazione fino a tornare acqua, creazione del vuoto sopra la superficie dell’acqua. A questo punto si libera il pistone prima bloccato in alto.
Esso scenderà violentemente risucchiato dal vuoto. A questo punto si rimette il focolare sotto il cilindro e tutto procede di nuovo come nel ciclo precedente. La forza (il termine energia entrerà nella letteratura scientifica molto oltre, nel xix secolo) che si genera dipenderà dalle dimensioni in gioco, ed in particolare dal diametro del cilindro; sul rendimento influirà invece in modo marcato la tenuta tra pistone e cilindro.
Successivamente, grazie alle scoperte in campo termodinamico, si riuscì a sfruttare il cosiddetto “vuoto spinto” per pompare l’acqua dai pozzi o dalle miniere. Uno dei primissimi esempi di questo genere di applicazione fu la macchina di Savery del 1698.
Il vapore proveniente da una caldaia (edificio in muratura) era inviato, mediante un tubo, dentro un recipiente pieno d’acqua, con l’effetto di espellere quest’acqua verso l’alto, mediante un altro tubo. Successivamente il recipiente veniva raffreddato mediante un getto d’acqua dall’esterno. A seguito di ciò il vapore ivi presente (che aveva sostituito l’acqua precedentemente presente) condensava provocando il vuoto. In tal modo, la pressione atmosferica agente sull’acqua da sollevare in fondo al pozzo, poteva spingere quest’acqua nel recipiente vuoto (si può anche dire che il vuoto del recipiente aspirava l’acqua dal pozzo). A questo punto un nuovo getto di vapore proveniente dalla caldaia faceva defluire l’acqua verso l’alto. I recipienti presenti erano due, ed erano alternativamente riempiti e svuotati per maggiore efficienza dell’impianto. E’ chiaro che per realizzare tutto questo occorreva aprire e chiudere alternativamente rubinetti e valvole; tali operazioni venivano fatte manualmente.
Tuttavia non tutto in queste macchine andava come il progetto ideale prevedeva: la macchina sollevava l’acqua non oltre i circa 10 metri (limite torricelliano). Per risolvere tale problema Savery spinse sulla pressione, portandola alle circa 10 atmosfere (se si pensa che non vi erano valvole di sicurezza ci si rende conto che tali macchine erano delle potenziali bombe); la qual cosa, nelle previsioni teoriche, avrebbe moltiplicato per 10 il normale sollevamento ad una sola atmosfera, portandolo a circa 100 metri. Il tutto però avveniva con grande consumo di combustibile (carbone e legna), circa 20 volte quello di una normale macchina a vapore di alcuni anni dopo.
L’evoluzione successiva che sopperì alle mancanze della macchina di Savery fu la macchina di Newcomen del 1712 che, con più componenti meccaniche e una maggiore attenzione alla dispersione di energia, aveva accresciuto il rendimento con temperature più basse e una conseguente diminuzione della pericolosità.
Essa adottava cilindro e stantuffo di Papin e lavorava, contrariamente a Savery, a bassa pressione (quella atmosferica), fatto che la rendeva di molto più facile costruzione. Era poi molto affidabile per l’abilità artigiana di costruzione (dati gli standard piuttosto insoddisfacenti dell’epoca), per il fatto che Newcomen aveva esperienza di miniere e perché lavorava con un abile idraulico, Calley. Un fornello alimentava la caldaia che produceva vapore alla pressione atmosferica. Tale vapore veniva immesso dal basso nel cilindro e, aiutato dal bilanciere che manteneva inizialmente in equilibrio l’asta della pompa posta ad estremità opposta del bilanciere rispetto all’asta dello stantuffo, faceva sollevare lo stantuffo medesimo.
Appena il vapore aveva riempito il cilindro, mediante una valvola, si immetteva in esso dell’acqua fredda che originava la condensazione del vapore. In tal modo lo stantuffo precipitava verso il basso spinto dalla pressione atmosferica. Il bilanciere oscillava alternativamente da una parte e dall’altra, provocando la messa in funzione della pompa, situata a sinistra del bilanciere, che sollevava l’acqua dal basso.

16 – padroni dell’acqua

Il problema dell’energia è antico quasi quanto l’uomo, o almeno da quando l’uomo si dotò delle proprie appendici tecnologiche. Da sempre l’uomo ha cercato una fonte di energia per evitare una fatica o per sopperire all’insufficienza della propria forza.
L’acqua è stata ed è tuttora una delle più efficaci fonti di energia dalla quale l’uomo ha tratto supporto e profitto, ma prima dell’utilizzo a fini energetici, egli dovette risolvere il problema di attingere, distribuire e razionalizzare tale risorsa in modo da renderla utilizzabile.
In Medio Oriente, almeno dal i sec. a.C., fu utilizzato un sistema circolare che attraverso il ribaltamento ciclico di scodelle (il cosiddetto sistema “a norie”) permetteva il trasporto dell’acqua da un livello a un altro. Da allora, pur con l’apporto della tecnologia idrica dei Romani, gli avanzamenti furono pochi ma soprattutto, eccezion fatta per una crescente capacità di derivazione di canali da un corso d’acqua.
Una rilevante accelerazione si ebbe nel periodo rinascimentale, con i primi tentativi di quantificazione numerica delle risorse idriche; ciò avvenne proprio in Italia perché la penisola era (e rimane) molto più scarsamente rifornita di acqua rispetto ai paesi del Nord Europa: l’acqua era un bene, poiché, essendo limitato, era suscettibile di valutazione economica.
La prima macchina che consentì di sfruttare l’energia cinetica di un corso d’acqua in energia fu il mulino. Si hanno testimonianze di mulini ad acqua sin dal i sec. a.C., in epoca romana, e la tecnologia dei mulini non cambiò di molto sino a tutto il Medioevo.
Il funzionamento era basato sul flusso continuo e unidirezionale di un corso d’acqua che con il suo scorrere metteva in rotazione le pale del mulino. La trasmissione del moto della ruota avveniva per mezzo di ruote dentate.
Una prima forma di evoluzione, che non fosse solamente circoscritta a ottimizzare le prestazioni del mulino in sé, fu quella di mettere quasi in serie e in parallelo più mulini, l’uno in prossimità all’altro.
Un esempio di quest’evoluzione sono certamente i mulini di Barbegal. Il complesso risale agli inizi del iv secolo d.C. Posto su di un pendio, era composto da due serie parallele di otto ruote alimentate da due canali derivati dall′acquedotto di Arles. Le ruote idrauliche avevano un diametro di 2,7 m. Un carrello che si muoveva su un piano inclinato consentiva di far salire e scendere i carichi attraverso un meccanismo idraulico.
Quest′impianto consentiva una capacità di macinazione complessiva di 4 tonnellate di farina al giorno, sufficienti al fabbisogno di una popolazione di più di 10.000 abitanti, la popolazione di Arles a quel tempo.
Il primo campo nel quale fu impiegata la forza meccanica ottenuta dalla trasformazione dell’energia cinetica dell’acqua in lavoro fu la macinazione del grano.
Nel palmento mobile (mosso da una ruota dentata mossa a sua volta dalla ruota ad acqua) si ha un foro centrale attraverso cui cade il grano da macinare. Quando il palmento mobile si appoggia a quello fisso e si mette in moto, si sgretola il chicco; la farina scende attraverso le scanalature fuoriuscendo all’interno della cassa. Si può già dunque ben capire che l’ordine di accuratezza operativa di questo tipo di macchine, e specialmente nei palmenti, è comparabile alla dimensione di un chicco di grano o anche molto inferiore; si tratta di un caso di gestione della precisione pur ancora all’interno del paradigma del pressappoco.
Man mano che l’evoluzione tecnica va avanti si trovano sempre nuove applicazioni per il mulino. La fucina dei metalli fu la seconda grande applicazione della forza dell’acqua. La ruota a pale fa girare l’albero principale sul quale sono infissi cavicchi di legno che nella rotazione si appoggiano sulla coda del braccio del maglio, sollevandolo. Quando il cavicchio continua la rotazione, l’asta e il maglio alla sua estremità cadono sopra l’incudine sul ferro incandescente. La velocità delle battute dipende dalla ruota a pale e dalla velocità dell’acqua che le colpisce.
Col crescere delle esigenze e delle possibili applicazioni bisognava anche far fronte a problemi logistici sempre più articolati. Da semplici deviazioni di corsi d’acqua, i canali divennero oggetto di ingegnerizzazione e parte integrante del tessuto urbanistico e “industriale”.
A Torino, sin dal 1580 Emanuele Filiberto trasformò buona parte delle segherie in macine adibite alla produzione di polvere da sparo per evitare una dipendenza quasi totale dalle forniture estere: nacque così la Regia Fabbrica delle Polveri e Raffineria dei Nitri, che doveva essere alimentata in modo costante da un corso d’acqua di dimensioni sufficienti. Tuttavia, già dal 1717 lo stabilimento fu dotato di una macina mossa da cavalli che permetteva di non subordinare il funzionamento degli impianti alle discontinue piene della Dora.
Con l’aumentare degli ostacoli e delle esigenze, con l’accrescersi della volontà di rendere sempre migliori le prestazioni delle macchine alimentate dalla risorsa idrica, si verificò un ragguardevole sviluppo di due discipline: l’idraulica e la termodinamica, con la conseguente meccanica delle macchine a vapore.
Il rinnovo dell’idraulica vide i suoi principali interpreti in Edme Mariotte, Isaac Newton e Daniel Bernoulli, che si occuparono di studi di vario genere, compresi alcuni di grande importanza sulla geometria delle pale.
Il perfezionamento principale non fu dovuto al lavoro teorico degli scienziati, ma a esperimenti su modelli ridotti (John Smeaton nel 1762 e 1763 e Jean-Charles de Borda nel 1767).
All’inglese Smeaton si dovette l’aumento regolare dei rendimenti dei motori idraulici tra il 1750 e il 1780. Il xviii secolo fu il periodo in cui si ebbero i principali progressi nel campo.

15 – cotone e vapore

Il settore tessile

Fu uno dei settori industriali che più si sviluppò in modo rivoluzionario. Ci fu un netto passaggio dalla lana al cotone, passaggio determinato da più fattori:
1) la lana era difficilmente lavorabile a macchina per via delle proprie caratteristiche meccaniche, mentre il cotone ha un comportamento migliore;
2) il cotone aveva una maggiore commerciabilità all’esterno dei confini britannici, in quanto tessuto più leggero.

Tutta la filiera tessile fu interessata da innovazioni tecnologiche.
Sgranatura: con l’operazione manuale, la bambagia che avvolge il seme è sfilata dalla capsula rigida che la circonda eseguendo una procedura che è più facile per dita piccole, come quelle dei bambini o delle donne. La sgranatrice automatica del cotone è inventata da Eli Whitney nel 1793: la macchina sbriciolava la capsula, portando via la bambagia con l’azione di un pettine di fili d’acciaio, chiodi o cardi; ciò che restava era la massa di cotone, poiché il pettine aveva una densità tale da impedire il passaggio dei semi.
Filatura: con l’arcolaio, dalla matassa si formava il filato, arrotolandolo su fusi (rocchetti) in modo tale da imporre una torsione (la cosiddetta torcitura, operazione in grado di garantire al tessuto maggiore resistenza meccanica). Una macchina come la spinning jenny di James Hargreaves (1764) rese possibile la moltiplicazione della produttività della filatura, poiché essa poteva lavorare in contemporanea anche su 30 fusi.
Tessitura: la navetta volante di John Kay (1733) permise un raddoppio della produttività; il telaio automatico di Jacquard (1801) diede però l’avanzamento di maggiore importanza.

Piccola cronologia:
xiii sec.: prime rappresentazioni di arcolaio in Cina
1224: introduzione dell’arcolaio in Francia e in Italia
1470: prima rappresentazione di arcolaio ad alette in Inghilterra
1733: spoletta volante di John Kay
1764: James Hargreaves inventa la spinning jenny, filatrice con più fusi
1779: Samuel Crompton inventa la spinning mule, filatrice automatica a fusi multipli
1784 – Edmund Cartwright realizza un telaio mosso da energia idraulica
1794 – Eli Whitney brevetta la sgranatrice per cotone detta cotton gin
1801 – Joseph Marie Jacquard brevetta il telaio omonimo

La macchina a vapore
Nella localizzazione di un impianto produttivo era da sempre stata necessaria la vicinanza ad un corso d’acqua, in grado di far funzionare le ruote e i mulini atti a garantire forza al processo produttivo. Con la macchina a vapore si superò questo ostacolo, delocalizzando le produzioni dai corsi d’acqua; i canali non erano più necessari per la produzione di energia.
In più, la macchina a vapore era in grado di sviluppare un gran coppia ai bassi regimi, così da avere gran potenza e forza sempre disponibile. L’aspetto maggiormente rivoluzionario sta nella quantità di energia prodotta, molto maggiore di quanto non si fosse mai prodotto. Nel frattempo:
– sviluppo dell’idraulica (e poi della fluidodinamica);
– sviluppo della metallurgia con nuovi combustibili dall’alto potere calorifero e la produzione di altiforni, che offrivano una resa molto maggiore.