Vai al contenuto

archeoinformatica

Podcast RSI – 5 maggio, Skype dà il mortal sospiro

Questo è il testo della puntata del 3 marzo 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


[CLIP: audio di suoneria di chiamata di Skype]

Per un’intera generazione di utenti, questo suono è familiare quanto quello della classica suoneria Nokia: è l’avviso di una chiamata Skype in arrivo. La tecnologia corre così in fretta che è facile dimenticarsi di quanto fu rivoluzionario questo software al suo debutto ben ventidue anni fa. Parlarsi via Internet, e anche vedersi in videochiamata, oggi è assolutamente normale; non lo era nel 2003.

Ma la corsa della tecnologia ha anche un’altra conseguenza: quel suono familiare presto sarà archiviato, perché Microsoft ha deciso, abbastanza di colpo, che Skype non sarà più disponibile a partire dal prossimo 5 maggio.

Questa è la storia di Skype, delle sue origini tutte europee un po’ dimenticate, di come ha contribuito a trasformare le nostre abitudini e di come verrà ingloriosamente archiviato e sostituito: Microsoft ha predisposto un percorso facilitato di migrazione al suo prodotto analogo Teams, ma ci sono anche altre soluzioni alternative.

Benvenuti alla puntata del 3 marzo 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Siamo nel 2003. È il 29 di agosto. A Stoccolma una ventina di persone si raduna per assistere al debutto online di un software, sviluppato da loro, che consente di fare telefonate via Internet, da un computer a un altro, in qualunque luogo del mondo, e consente di farlo facilmente e soprattutto gratis a prescindere dalla distanza fra i due interlocutori. È una rivoluzione vera e propria, in un’epoca in cui le conversazioni a lunga distanza sono un sostanziale monopolio delle compagnie telefoniche e hanno costi molto elevati e i messaggi vocali di WhatsApp che oggi consideriamo normali o addirittura essenziali sono pura fantascienza. Mancano infatti quattro anni al debutto del primo iPhone (nel 2007) e WhatsApp nemmeno esiste (arriverà nel 2009 e i suoi “vocali” inizieranno nel 2014).

Nel 2003 ci sono già altri software che permettono di trasportare la voce via Internet, ma sono complicati da installare e ancora più complicati da configurare. Questo, invece, si installa in pochi semplici passaggi e non richiede modifiche dei firewall aziendali o altre complessità tipiche dei suoi concorrenti. E così, il primo giorno il software viene scaricato da diecimila persone. Nel giro di un paio di mesi ha già un milione di utenti. Lo stupore di potersi parlare via Internet è ovunque.

Questo software, come avrete intuito, è quello che oggi chiamiamo Skype. Inizialmente, però, il nome previsto era un altro. Era Skyper: un po’ per assonanza con Napster, uno dei software più popolari e controversi di quegli anni, e un po’ come fusione di sky (cielo) e peer, dato che impiega la stessa tecnologia di trasmissione adoperata dai circuiti peer-to-peer per lo scambio di musica e film via Internet. Ma ahimè il dominio Skyper.com è già occupato, e così Skyper perde la R e diventa Skype.

L’assonanza del nome non è l’unico legame di Skype con i circuiti peer-to-peer: i fondatori di Skype sono lo svedese Niklas Zennström e il danese Janus Friis, e il software è stato scritto da un gruppo di programmatori estoni. Sono le stesse persone che due anni prima hanno creato Kazaa, un popolarissimo programma concorrente di Napster, e ora hanno adattato la tecnologia di Kazaa alla telefonia online.

Viste le grane legali che hanno avuto con le case discografiche per colpa di Kazaa, accusato di facilitare la pirateria audiovisiva di massa, Zennström e Friis hanno deciso di integrare immediatamente in Skype la crittografia, in modo che le chiamate fatte via Skype non siano intercettabili. Ovviamente questo fa diventare Skype uno dei software prediletti dai criminali di tutto il mondo oltre che dalle persone comuni che vogliono semplicemente parlare con amici e parenti lontani senza svenarsi.

Altrettanto ovviamente, le compagnie telefoniche non vedono con piacere l’avvento di questo concorrente che li spiazza completamente offrendo gratis il servizio che loro invece fanno pagare, ma legalmente non c’è nulla che possano fare per impedirlo, anche perché Zennström e Friis fanno in modo che Skype, intesa come azienda, non sia classificabile come operatore telefonico, perché non offre chiamate da un numero telefonico a un altro, ma solo da un numero telefonico a un computer oppure da un computer a un numero di telefono.

A settembre del 2005, dopo due anni di crescente successo e di espansione dell’azienda, Skype viene venduta a eBay per due miliardi e 600 milioni di dollari. Il suo software diventa man mano una delle applicazioni fondamentali di Internet, con oltre seicento milioni di utenti registrati e circa 300 milioni di utenti attivi mensili. Ma i giganti del software stanno sviluppando prodotti concorrenti: Google, Microsoft, Yahoo, Facebook, Apple e altri, come Viber, alitano sul collo di Skype, che nel frattempo ha aggiunto le videochiamate.

Una pagina del sito di Skype com’era nel 2011. Fonte: Archive.org.

Nel 2011, Microsoft compra Skype per otto miliardi e mezzo di dollari. È l’acquisto più costoso mai fatto fino a quel punto dal colosso di Redmond. Skype viene integrato nei servizi di Microsoft, tanto da diventare l’app di messaggistica predefinita di Windows 8.1, e viene progressivamente trasformato. Nascono le versioni per Mac, iPhone, iPad, Android, BlackBerry e anche Linux, e arriva anche Skype for Business, che però è in realtà un prodotto completamente distinto che ha in comune con Skype soltanto il nome e l’estetica.

Sembra l’apice del successo, ma in realtà il destino di Skype è già segnato.


L’integrazione di Skype in Windows, infatti, non procede per il meglio, e Microsoft ha già iniziato l’acquisizione e lo sviluppo di quello che oggi tutti conosciamo come Teams per sostituire Skype. Nel 2021 Skype for Business viene chiuso e in Windows 11 c’è Teams al posto di Skype; negli anni successivi, con molta calma, vengono disattivati i servizi di contorno di Skype standard, che è ancora usato giornalmente da quasi quaranta milioni di utenti. I segnali delle intenzioni di Microsoft a lungo termine sono dunque molto chiari. Ma l’annuncio vero e proprio della fine di questa app che ha fatto la storia di Internet arriva in maniera inaspettata, e non è Microsoft a darlo.

Il 28 febbraio scorso, infatti, il sito XDA Developers ha annunciato la scoperta, all’interno della versione di anteprima più recente di Skype per Windows, di una dicitura sibillina ma inequivocabile che avvisa in inglese che “a partire da maggio, Skype non sarà più disponibile. Prosegui le tue chiamate e le tue chat su Teams”. Poche ore dopo è arrivata la conferma ufficiale di Microsoft.

Mentre le fasi precedenti della progressiva eliminazione di Skype erano state annunciate con ampi margini di tempo (per esempio quattro anni per Skype for Business), stavolta quella quarantina di milioni di utenti rimasti ha meno di dieci settimane di tempo per riorganizzarsi e decidere cosa fare.

Dal 5 maggio prossimo Skype non sarà più disponibile, ma chi ha pagato un abbonamento potrà continuare a usarlo fino alla scadenza e chi ha del credito sul proprio conto Skype potrà continuare a sfruttarlo. Prima del 5 maggio, gli utenti di Skype potranno scaricare la versione gratuita di Teams e usare in Teams le proprie credenziali Skype su qualunque dispositivo supportato. Le chat e i contatti di Skype appariranno automaticamente in Teams [video]. Durante la transizione, chi usa Skype potrà chiamare gli utenti Teams e viceversa.

Ma a Teams gratuito mancano alcune delle caratteristiche che rendevano Skype così interessante: in particolare manca la possibilità di fare chiamate verso numeri telefonici e di ricevere chiamate provenienti dalla rete telefonica fissa e cellulare. Si poteva infatti avere un numero telefonico Skype al quale farsi chiamare, cosa che invece Microsoft offre soltanto nella versione a pagamento di Teams.

Se usate Skype e non fate la migrazione a Teams entro il 5 maggio prossimo, Microsoft conserverà comunque i vostri dati di Skype fino alla fine del 2025. Potrete quindi decidere di installare Teams gratuito anche dopo il 5 maggio senza perdere chat e contatti, ma se non agite entro dicembre i vostri dati di Skype verranno cancellati definitivamente.

In alternativa, potete esportare questi dati seguendo le istruzioni di Microsoft (che trovate linkate su Attivissimo.me) in modo da poterli poi importare in un’altra applicazione a vostra scelta, ma al momento mancano strumenti per automatizzare questa importazione.

Se sopportate il disagio di dover reimmettere a mano i vostri contatti e di perdere la vostra cronologia delle chat, le soluzioni alternative a Teams per fare e ricevere chiamate vocali non mancano di certo oggigiorno. Moltissime app social molto diffuse consentono chiamate, spesso anche in video e in gruppo: WhatsApp, Facetime, Instagram, Zoom, Snapchat, Facebook Messenger, Viber, Google Chat, Google Meet, X, Telegram, Discord, giusto per citarne qualcuna, e anche nel fediverso ci sono applicazioni che hanno questa funzione. Il problema è che ciascuno di questi software non parla con gli altri, per cui tocca ogni volta concordare con i propri interlocutori quale app usare. Inoltre di solito manca la possibilità di chiamare numeri di telefono di rete fissa, ma questo oggi è un problema molto meno sentito che in passato, visto che gli smartphone e gli abbonamenti che includono una connessione continua a Internet sono diffusissimi e le chiamate verso numeri fissi sono sempre più rare.

Con la chiusura di Skype si abbassa ulteriormente il sipario su un periodo storico di Internet: Skype è una delle poche applicazioni di grande diffusione che risale ai primi anni duemila, quando la comunicazione online e mobile era ancora tutta da inventare, ed è ancora in uso adesso, ed è stata una di quelle che davano il classico “effetto wow”: non appena la vedevi usare, ne capivi subito l’utilità e il potenziale rivoluzionario. Ed è anche grazie a Skype che le tariffe telefoniche si sono trasformate radicalmente rispetto a vent’anni fa. Concetti come la tariffa interurbana o quella ridotta notturna per le chiamate sono oggi ricordi sbiaditi che cominciano di ammantarsi di immeritata nostalgia.

Ma lo Skype originale, quello pre-Microsoft, aveva anche un altro grande pregio: faceva una sola cosa, e la faceva bene e in modo chiaro e intuitivo. Oggi tutte le app cercano di fare tutto, tipicamente in modo incompatibile fra loro, creando complessità e confusione, e ovviamente non possono fare a meno di incorporare l’onnipresente intelligenza artificiale. Quella che, fra l’altro, Microsoft aveva infilato anche nelle ultime versioni di Skype, e che troverete naturalmente saldamente integrata in Teams, se decidete di adottarlo come sostituto. Buona migrazione.


A proposito di Teams: prima di chiudere, devo fare una rettifica alla puntata del 24 febbraio scorso, quella dedicata a una tecnica di attacco informatico nella quale gli aggressori fingono di essere l’assistenza tecnica di Microsoft che contatta le vittime tramite Teams dal dominio in apparenza rassicurante Onmicrosoft.com.

Nel podcast ho detto erroneamente che questo nome di dominio appartiene ai criminali, ma in realtà è di Microsoft e i criminali si limitano a sfruttare il fatto che Microsoft assegna questo nome di dominio agli utenti Teams che non ne hanno uno proprio o non lo connettono a Microsoft 365.

Il risultato è che i messaggi Teams dei truffatori provengono da un indirizzo di mail che termina con onmicrosoft.com e quindi è facile scambiarli per messaggi dell’assistenza tecnica di Microsoft. Ringrazio i lettori e gli ascoltatori del podcast che hanno notato il mio errore.

Fonti aggiuntive

Microsoft is killing Skype after 14 years of neglect, WindowsCentral.com, 2025

Exclusive: Microsoft is finally shutting down Skype in May [Update], XDA-developers.com, 2025

Non-biz Skype kicks the bucket on May 5, The Register, 2025

Microsoft announces Skype will close in May, BBC, 2025

Microsoft hangs up on Skype: Service to shut down May 5, 2025, TechCrunch, 2025

On May 5, Microsoft’s Skype will shut down for good, Ars Technica, 2025

Microsoft Plans to Kill Skype, but Did It Ever Truly Live?, Gizmodo, 2025

Gear News of the Week: Skype Will Close for Good in May, Wired.com, 2025

Microsoft finally putting Skype out of our misery, BoingBoing, 2025

The next chapter: Moving from Skype to Microsoft Teams, Microsoft, 2025

Skype recovers from global blackout, BBC, 2010

Skype Is Down, Nearly 20 Million Lost Their Connection This Morning, ReadWriteWeb.com, 2010 (su Archive.org)

Skype Goes Down. Millions Impacted. Skype responds, GigaOm.com, 2010 (su Archive.org)

“How can they be so good?”: The strange story of Skype, Ars Technica, 2018

About Skype, Skype.com, 2011 (su Archive.org)

Smartphone history and evolution, Simpletexting.com, 2024

Sono un pezzo da museo e felice di esserlo: intervista per “Archeologia Informatica”

Gli amici di Archeologia Informatica (Retrocampus.com) mi hanno dedicato questa bella chiacchierata di retrocomputing in cui ho caoticamente ripercorso alcune delle tappe forse poco note della mia storia informatica.

Notevoli e graditissimi gli inserti video che illustrano le cose di cui parliamo, dai fogliettini di bianchetto per le macchine per scrivere al Commodore PET passando per WordStar, CICS/MVS, l’autoscrittura di software per impaginare e per fare backup predittivo, desktop publishing con WordPerfect 5.1 e Ventura Publisher per GEM, le BBS l’arrivo di Internet… e tanto altro. Buona visione!

Un paio di correzioni al volo (scusate, andavo a memoria e per alcuni episodi sono passati più di quarant’anni):

  • il mainframe IBM sul quale ho mosso i primi passi era un 43xx, diversamente da quello che dico nell’intervista
  • il software che scrissi per generare pagine “camera ready” per i libri non era per la stampante ad aghi ma era per la stampante laser GQ-3500 della Epson (non-Postscript), che fu poi sostituita dalla Apple LaserWriter che cito, e il libro impaginato con questa tecnica rocambolesca era effettivamente Modelli matematici e simulazione (1988) del Gruppo Editoriale Jackson.
Link al video su YouTube

Computer grafica nel 1968. Con la demo che ispirò HAL per “2001: Odissea nello spazio”

Link al video su YouTube

Sembrano immagini da un universo parallelo, ma le immagini mostrate in questo filmato del 1968 (YouTube) sono la realtà di quello che già si faceva nei laboratori della Bell alla fine degli anni Sessanta: grafica digitale, composizione di musica al computer, progettazione virtuale di circuiti elettronici usando uno stilo (o penna ottica come si chiamava all’epoca), simulazioni 3D di orbite spaziali, sintesi vocale, concezione di film generati al computer, e altro ancora. I macchinari di allora erano enormi, lentissimi e costosissimi: oggi abbiamo a disposizione le stesse risorse sui nostri telefonini.

A 10:00 una chicca per gli appassionati di fantascienza: la scena che quasi sicuramente ispirò Stanley Kubrick per la famosa sequenza di 2001: Odissea nello spazio nella quale il computer intelligente HAL (spoiler!) subisce una lobotomia e gli viene chiesto di cantare una canzoncina per segnalare il progressivo degrado delle sue capacità intellettive. La canzoncina, in questo documentario e nel film, è Daisy Bell; nell’edizione italiana venne sostituita con la filastrocca Giro Girotondo. Si perse così il riferimento a queste sperimentazioni della Bell e anche una battuta sottile nel testo della canzoncina, quando HAL dice “I’m half crazy” (sono mezzo matto).

Il documentario si intitola The Incredible Machine ed è datato 1968. I sottotitoli automatici di YouTube sono pieni di errori; non fidatevi di quello che scrivono.

Qui trovate il programma in Perl per far cantare Daisy Bell alla sintesi vocale del Mac.

Secondo la didascalia del video su YouTube, si tratta del sistema informatico Graphic 1 dei Bell Labs, composto da un PDP-5 della Digital Equipment Corporation accoppiato a periferiche come una penna ottica Type 370, una tastiera da telescrivente Teletype Model 33 della Teletype Corporation, e un display incrementale di precisione DEC Type 340 coadiuvato da una memoria buffer RVQ della Ampex capace di immagazzinare 4096 parole (words). La risoluzione sul monitor era 1024×1024 (una foto su Instagram di oggi, per capirci). Ripeto, siamo nel 1968 e questi avevano già monitor con queste caratteristiche. L’output grafico veniva passato a un sistema IBM 7094 da 200 kflop/secondo, collegato a un registratore su microfilm SC 4020 della Stromberg Carlson che, sempre stando alla didascalia, “ci metteva ore a leggere e registrare i dati”. Ma le avvisaglie di tutto quello che conosciamo oggi c’erano già.

Fonte aggiuntiva: Hackaday.

Podcast RSI – NASA, monitor giganti, piatti e a colori 60 anni fa. Con tecnologia svizzera


Questo articolo è importato dal mio blog precedente Il Disinformatico: l’originale (con i commenti dei lettori) è qui.

logo del Disinformatico

Ultimo aggiornamento: 2024/07/01 16:30.

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunesGoogle PodcastsSpotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

Questa è l’ultima puntata prima della pausa estiva: il podcast tornerà il 19 luglio.


Gli appassionati di archeologia misteriosa li chiamano OOPART: sono gli oggetti fuori posto, o meglio fuori tempo. Manufatti che si suppone non potessero esistere nell’epoca a cui vengono datati e la cui esistenza costituirebbe un anacronismo. Immaginate di trovare una lavastoviglie o uno schema di sudoku dentro una tomba egizia mai aperta prima: sarebbe un OOPART. In realtà i presunti OOPART segnalati finora hanno tutti spiegazioni normali ma comunque affascinanti.

In informatica, invece, esiste uno di questi OOPART davvero difficile da spiegare. Questo oggetto apparentemente fuori dal tempo è un monitor gigante per computer, a colori, ultrapiatto, ad altissima risoluzione, che misura ben tre metri per sette ed è perfettamente visibile in piena luce. Prestazioni del genere oggi sono notevoli, ma si tratta di un manufatto che risale a sessant’anni fa, quando i monitor erano fatti con i tubi catodici, pesantissimi e ingombrantissimi.

La cosa buffa è che questo anacronismo extra large è sotto gli occhi di tutti, ma oggi nessuno ci fa caso. È il monitor gigante che si vede sempre nei documentari e nei film dedicati alle missioni spaziali: il mitico megaschermo del Controllo Missione.

13 aprile 1970. Il Controllo Missione durante una diretta TV trasmessa dal veicolo spaziale Apollo 13. A sinistra si vede lo schermo gigante a colori in alta risoluzione. A destra, la videoproiezione Eidophor a colori (NASA).

Come è possibile che la NASA avesse già, sei decenni fa, una tecnologia che sarebbe arrivata quasi trent’anni più tardi? Tranquilli, gli alieni non c’entrano, ma se chiedete anche ai tecnici del settore e agli informatici come potesse esistere un oggetto del genere a metà degli anni Sessanta, probabilmente non sanno come rispondere.

Questa è la strana storia di questo oggetto a prima vista impossibile e di una serie di tecnologie folli e oggi dimenticate, a base di olio viscoso, dischi rotanti e puntine di diamante, nelle quali c’è di mezzo un notevole pizzico di Svizzera. Se il nome Fritz Fischer e la parola Eidophor non vi dicono nulla, state per scoprire una pagina di storia della tecnologia che non è solo un momento nerd ma è anche una bella lezione di come l’ingegno umano sa trovare soluzioni geniali a problemi in apparenza irrisolvibili.

Benvenuti alla puntata del 28 giugno 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Un oggetto impossibile

Se siete fra i tanti che in questo periodo stanno acquistando un televisore ultrapiatto gigante in alta definizione, forse vi ricordate di quando lo schermo televisivo più grande al quale si potesse ambire a livello domestico era un 32 pollici, ossia uno schermo che misurava in diagonale circa 80 centimetri, ed era costituito da un ingombrantissimo, costosissimo e pesantissimo tubo catodico, racchiuso in un mobile squadrato e profondo che troneggiava nella stanza.* Sì, c’erano anche i videoproiettori, ma quelli erano ancora più costosi e ingombranti. Magari avete notato questi strani scatoloni nei film di qualche decennio fa. Oggi, invece, è normale avere schermi ultrapiatti, con una diagonale tre volte maggiore, che sono così sottili che si appoggiano contro una parete.

* Nel 1989 la Sony presentò in Giappone il televisore a tubo catodico Trinitron più grande mai realizzato, il KV-45ED1 o PVM-4300 (43 pollici, 225 kg, 40.000 dollari in USA).

Eppure alla NASA, a metà degli anni Sessanta, su una parete del Controllo Missione che gestiva i lanci spaziali verso la Luna, c’erano non uno ma ben cinque megaschermi perfettamente piatti, nitidissimi, con colori brillanti, visibili nonostante le luci accese in sala. Il più grande di questi schermi misurava appunto tre metri di altezza per sette di larghezza. La risoluzione di questi monitor era talmente elevata che si leggevano anche i caratteri più piccoli delle schermate tecniche e dei grafici che permettevano agli addetti di seguire in dettaglio le varie fasi dei voli spaziali.

Per fare un paragone, maxischermi come il Jumbotron di Sony o i Diamond Vision di Mitsubishi arriveranno e cominceranno a essere installati negli stadi e negli spazi pubblicitari solo negli anni Ottanta,* e comunque non avranno la nitidezza di questi monitor spaziali della NASA.** Certo, al cinema c’erano dimensioni e nitidezze notevoli e anche superiori, soprattutto con i grandi formati come il 70 mm, ma si trattava di proiezioni di pellicole preregistrate, mentre qui bisognava mostrare immagini e grafici in tempo reale. I primi monitor piatti, con schermi al plasma, risalgono anch’essi agli anni Ottanta ed erano installati nei computer portatili di punta dell’epoca, ma non raggiungevano certo dimensioni da misurare in metri e in ogni caso erano monocromatici.

* Sony è famosa per il suo Jumbotron, ma fu battuta sul tempo dalla Mitsubishi Electric, i cui megaschermi Diamond Vision furono prodotti per la prima volta nel 1980. Il primo esemplare, basato su CRT (tubi catodici) compatti a tre colori (rosso, blu e verde) fu installato a luglio dello stesso anno al Dodger Stadium di Los Angeles e misurava 8,7m x 5,8 m (Mitsubishi Electric).

** Un Jumbotron da 10 metri aveva una risoluzione di soli 240 x 192 pixel.

I primi schermi piatti a colori arriveranno addirittura trent’anni dopo quelli della NASA, nel 1992, e saranno ancora a bassa risoluzione. Il primo televisore a schermo piatto commercialmente disponibile sarà il Philips 42PW9962 (un nome facilissimo da ricordare), classe 1995, che misurerà 107 centimetri di diagonale e avrà una risoluzione modestissima, 852 x 480 pixel, che oggi farebbe imbarazzare un citofono. Costerà ben 15.000 dollari dell’epoca. Oggi dimensioni diagonali di 98 pollici (cioè due metri e mezzo) e risoluzioni dai 4K in su (ossia 3840 x 2160 pixel) sono commercialmente disponibili a prezzi ben più bassi.

Insomma, quella tecnologia usata dall’ente spaziale statunitense sembra davvero fuori dal tempo, anacronistica, impossibile. Però esisteva, e le foto e i filmati di quegli anni mostrano questi schermi all’opera, con colori freschissimi e dettagli straordinariamente nitidi, nella sala ben illuminata del Controllo Missione.

Per capire come funzionavano bisogna fare un salto a Zurigo.

Eidophor, il videoproiettore a olio

Per proiettare immagini televisive, quindi in tempo reale, su uno schermo di grandi dimensioni, negli anni Sessanta del secolo scorso esisteva una sola tecnologia: andava sotto il nome di Eidophor ed era un proiettore speciale, realizzato dalla Gretag AG di Regensdorf.

Era questo apparecchio che mostrava le immagini che arrivavano dallo spazio e dalla Luna ai tecnici del Controllo Missione di Houston, e si trattava di un marchingegno davvero particolare, concepito dall’ingegner Fritz Fischer, docente e ricercatore presso il Politecnico di Zurigo, dove lo aveva sviluppato addirittura nel 1939 [brevetto US 2,391,451], presentando il primo esemplare sperimentale nel 1943. Se ve lo state chiedendo, il nome Eidophor deriva da parole greche che significano grosso modo “portatore di immagini”.

Questo proiettore usava un sistema ottico simile a quello di un proiettore per pellicola, ma al posto della pellicola c‘era un disco riflettente che girava lentamente su se stesso. Questo disco era ricoperto da un velo di olio trasparente ad alta viscosità, sul quale un fascio collimato e pilotato di elettroni depositava delle cariche elettrostatiche che ne deformavano la superficie.

Uno specchio composto da strisce riflettenti alternate a bande trasparenti proiettava la luce intensissima di una lampada ad arco su questo velo di olio, e solo le zone del velo che erano deformate dal fascio di elettroni riflettevano questa luce verso lo schermo, permettendo di disegnare delle immagini in movimento.

Schema di funzionamento del velo d’olio e dello specchio a strisce, tratto da Eidophor – der erste Beamer, Ngzh.ch, 2018.

Lo so, sembra una descrizione molto steampunk. E come tanta tecnologia della cultura steampunk, anche l’Eidophor era grosso, ingombrante e difficile da gestire. Usarlo richiedeva la presenza di almeno due tecnici e un’alimentazione elettrica trifase, e se il velo d’olio si contaminava l’immagine prodotta veniva danneggiata. Però la sua tecnologia completamente analogica funzionava e permetteva di mostrare immagini televisive in diretta, inizialmente in bianco e nero e poi a colori, su schermi larghi fino a 18 metri.

Nel 1953 l’Eidophor fu presentato negli Stati Uniti in un prestigioso cinema di New York, su iniziativa della casa cinematografica 20th Century Fox, che sperava di installarne degli esemplari in centinaia di sale per mostrare eventi sportivi o spettacoli in diretta, ma non se ne fece nulla, perché l’ente statunitense di regolamentazione delle trasmissioni non concesse le frequenze televisive necessarie per la diffusione.

Negli anni Sessanta le emittenti televisive di tutto il mondo cominciarono a usare questi Eidophor come sfondi per i loro programmi, specialmente nei telegiornali e per le cronache degli eventi sportivi. Fra i clienti di questa invenzione svizzera ci furono anche il Pentagono, per applicazioni militari, e appunto la NASA, che ne installò ben trentaquattro esemplari nella propria sede centrale per mostrare le immagini dei primi passi di esseri umani sulla Luna a luglio del 1969. 

Un Eidophor EP 6 chiuso e aperto. Era alto 1,97 metri, largo 1,45 e profondo 1,05 (Nationalmuseum.ch).

Gli Eidophor della NASA furono modificati in modo da avere una risoluzione quasi doppia rispetto allo standard televisivo normale, 945 linee orizzontali invece delle 525 standard, rendendo così leggibili anche i caratteri più piccoli delle schermate di dati. In pratica la NASA aveva dei megaschermi HD negli anni Sessanta grazie a questa tecnologia svizzera, che fra l’altro piacque anche ai rivali sovietici, che installarono degli Eidophor anche nel loro centro di lancio spaziale.

Ma per lo schermo gigante centrale della NASA neppure l’Eidophor era all’altezza dei requisiti. Per quelle immagini ultranitide a colori era necessario ricorrere ai diamanti e alla Bat-Caverna.

Diamanti e Bat-Caverne

Anche in questo caso la tecnologia analogica fece acrobazie notevolissime. Lo schermo usava una batteria di ben sette proiettori, alloggiati in una enorme sala completamente dipinta di nero e battezzata “Bat-Caverna” dai tecnici che ci lavoravano.

Schema del sistema di proiezione, che mostra i grandi specchi usati per deviare i fasci di luce dei proiettori e ridurre così le dimensioni della sala tecnica.

Questi proiettori usavano lampade allo xeno, la cui luce potentissima illuminava delle diapositive e le proiettava su grandi lastre di vetro semitrasparente, che costituivano gli schermi veri e propri. Ma il calore di queste lampade avrebbe fuso o sbiadito in fretta qualunque normale diapositiva su pellicola, e i grafici dovevano invece restare sullo schermo per ore.

Così i tecnici si inventarono delle diapositive molto speciali, composte da lastrine di vetro ricoperte da un sottilissimo strato opaco di metallo. Su queste diapositive si disegnavano in anticipo le immagini da mostrare, incidendole direttamente nel metallo, un po’ come si fa per i circuiti stampati. Il metallo rimosso lasciava passare la luce, e poi dei filtri colorati permettevano di tingere la luce proiettata sullo schermo.

Questo permetteva di avere grafici e immagini di grandissima nitidezza, ben oltre qualunque risoluzione di monitor dell’epoca, e risolveva il problema delle immagini statiche, per esempio quella del globo terrestre o di un grafico di traiettoria o dei consumi di bordo del veicolo spaziale. Ma non risolveva il problema di aggiornare quei grafici con i dati di telemetria che provenivano dallo spazio e dai centri di calcolo della NASA.

Dettaglio di una porzione del megaschermo principale del Controllo Missione.

La soluzione ingegnosa, anche in questo caso fortemente analogica, fu montare alcuni di questi sette proiettori su un supporto che permetteva di orientarli. Questi proiettori avevano delle diapositive metalliche nelle quali c’era incisa la sagoma dei vari veicoli spaziali da seguire, e il loro puntamento era comandato dai dati che arrivavano dal centro di calcolo della NASA [l’adiacente Real-Time Computer Complex, descritto in italiano qui da Tranquility Base], pieno di grandi computer IBM 360, che elaboravano i dati trasmessi dal veicolo spaziale. In pratica, invece di aggiornare l’intera immagine come si fa con i normali monitor, veniva semplicemente spostata la diapositiva che raffigurava il veicolo e lo sfondo restava fisso.

Ma i grafici e le traiettorie andavano disegnati e aggiornati man mano, e quindi questo trucco di spostare la sagomina, per così dire, non bastava. Così la NASA adottò un trucco ancora più elegante: una testina di diamante, simile alle puntine dei giradischi, comandata da dei servomotori sugli assi X e Y, incideva la diapositiva, rimuovendo lo strato metallico opaco e facendo passare la luce del proiettore attraverso la zona incisa.

Sì, le immagini venivano letteralmente incise, formando simpatici truciolini metallici, spazzati via da delle potenti ventole. Quindi quando vedete nei documentari di quel periodo che il tracciato grafico della traiettoria di un veicolo spaziale si aggiorna, è perché la diapositiva veniva grattata. Semplice ed efficace, anche se ovviamente non era possibile rifare e correggere.

Sono tutte tecniche in apparenza semplici, una volta che qualcuno le ha escogitate, ma soprattutto sono tecniche che rivelano una lezione troppo spesso dimenticata nell’informatica di oggi: invece di usare potenza di calcolo a dismisura e risolvere tutto con il software per forza bruta, conviene esaminare bene il problema e capire prima di tutto quali sono i requisiti effettivi del progetto.

Nel caso della NASA, quei monitor dovevano mostrare in altissima risoluzione solo immagini statiche con pochi elementi in movimento, per cui non era necessario un approccio “televisivo”, nel quale l’immagine intera viene aggiornata continuamente. Per le immagini televisive vere e proprie c’era l’Eidophor; per tutto il resto bastavano diapositive metalliche e una puntina di diamante che le grattasse.

Sarebbe bello vedere applicare questi principi, per esempio, all’intelligenza artificiale. Il modello di oggi delle IA è forza bruta, con impatti energetici enormi. Ma ci sono soluzioni più eleganti ed efficienti. Per esempio, se si tratta di fare riconoscimento di immagini di telecamere di sorveglianza, non ha senso fare come si fa oggi, ossia mandare le immagini a un centro di calcolo remoto e poi farle analizzare lì da un’intelligenza artificiale generalista; conviene invece fare l’analisi sul posto, a bordo della telecamera, con una IA fatta su misura, che consuma infinitamente meno e rispetta molto di più la privacy.

Ma per ora, purtroppo, si preferisce la forza bruta.

Fonti