Dagli anni ’50 fino, in alcuni casi, a pochi anni fa, i lavoratori che avevano a che fare con un computer (si pensi ad esempio agli impiegati di banca) si trovavano in realtà davanti ad un terminale cosiddetto stupido, ossia un monitor, una tastiera e una connessione ad una rete telematica. Questo terminale, insieme con tutti gli altri terminali stupidi, era collegato ad un grosso elaboratore centrale chiamato mainframe. Poiché i terminali non avevano né unità di memorizzazione di massa né processore, gli operatori non potevano installare nulla in locale, né potevano elaborare nulla in locale. Meglio ancora: non esisteva il “locale”, era esattamente come essere perennemente connessi in remoto ad un altro computer. Dati e applicazioni erano memorizzati nel mainframe e tutto ciò che compariva sullo schermo era unicamente frutto dell’elaborazione dei dati presenti sul mainframe stesso (che disponeva di potenza di calcolo e spazio di archiviazione a volontà) e dell’interazione dell’operatore mediante tastiera.
Negli anni ’80 iniziarono ad affermarsi i primi personal computer (PC) ossia sistemi dotati di microprocessore e unità di memorizzazione di massa (tipicamente un disco rigido), che permettevano sia di connettersi a un mainframe come i terminali stupidi, sia di eseguire ed installare altre applicazioni in locale grazie alla presenza di un sistema operativo. Fu una svolta epocale: gli operatori potevano lavorare esattamente come prima, ma, in più, potevano eseguire rapidamente calcoli in locale o fare un solitario “elettronico” durante i momenti di pausa semplicemente eseguendo l’applicazione desiderata.
Negli anni la potenza di calcolo è divenuta man mano sempre maggiore, e oggi abbiamo a disposizione personal computer che sopportano tranquillamente il carico di più utenti connessi contemporaneamente tanto da assottigliare quella che dieci anni fa era l’enorme differenza tra la potenza di calcolo di server e workstation. Possiamo disporre di decine, anche centinaia di applicazioni installate e richiamabili in pochi secondi, e utilizzabili contemporaneamente. Abbiamo a disposizione tutto lo spazio di archiviazione necessario per i nostri documenti, la musica, i filmati, le fotografie eccetera; tutto in locale, sempre a disposizione ma, attenzione, tutto legato a un ben preciso PC. Proprio quest’ultimo legame, talvolta scomodo, ha spinto il progresso in una direzione che potremmo definire “nuova”, ma ben presto vedremo che lo è fino a un certo punto.
Domanda: chi scarica ancora la posta elettronica con un client in locale, cioè con Outlook, Thunderbird e simili? Fatta eccezione per alcuni ambienti di lavoro, direi quasi nessuno. La consultazione online, tramite browser, è oggettivamente più comoda, permette di controllare la posta e inviare messaggi ovunque ci si trovi, non si è più legati ad una macchina in particolare, ne va bene una qualsiasi, è sufficiente che sia collegata ad Internet. Negli ultimi anni le applicazioni online di gestione della posta elettronica si sono sviluppate enormemente e permettono all’utente di fruire di una grafica invitante e di funzionalità avanzate, tanto da non far rimpiangere i “vecchi” client installabili in locale. Probabilmente già si sarà notato qualcosa di “anomalo” in questo, una deviazione dalla direttrice intrapresa con l’avvento dei PC. Ma guardiamo ancora più avanti: Google ha annunciato qualche giorno fa il suo sistema operativo per PC: uscirà nel 2010 e sarà disponibile gratuitamente. Sarà un sistema basato sulla filosofia del tutto online, ciò significa che le applicazioni non saranno installate in locale, ma risiederanno sui server di Google e per accedervi sarà necessario essere connessi ad Internet. Si pensi ad esempio all’elaboratore di testi: si avvia l’applicazione (che gira sul server, dunque con poco carico di lavoro per il PC) e si lavora su un testo, dopodiché lo si salva sul server, non in locale. Si potrà certamente salvarlo anche in locale, ma come impostazione predefinita il salvataggio sarà online, come già succede con Google Docs. Dunque niente documento in locale se non scaricandolo manualmente; ovviamente c’è un vantaggio: quel documento sarà disponibile sempre aggiornato su Internet, ci si slega così dal PC su cui ci si lavora e ci si sbarazza dell’annoso problema della sincronizzazione delle diverse versioni dei documenti tra vari computer. Lo svantaggio è che il documento non è “nelle proprie mani”, ma caricato su un server che non è non sotto il proprio controllo. Se per qualche motivo non fosse disponibile la rete, il documento risulterebbe inaccessibile. Niente documento in locale, niente elaboratore di testi in locale. Tutto su server, accessibile via rete Internet. Non si nota qualche somiglianza con quanto accadeva cinquant’anni fa?
Riferimenti:
http://en.wikipedia.org/wiki/Cloud_computing
http://technology.timesonline.co.uk/tol/news/tech_and_web/article3874599.ece