La storia della gestione dei dati

giovedì 13 agosto 2015 di Jennifer Duits

È facile dire che il mondo dell’archiviazione  e della  gestione dei dati è in continua evoluzione e che ogni giorno vengono sviluppate nuove tecnologie.

Guardando indietro alla storia della memorizzazione e della gestione dei dati ho scoperto che alcune delle "nuove" tecnologie di oggi erano  utilizzate (o esistevano almeno a livello concettuale) già da molto tempo, più di quanto avessi pensato.

Ciò che è davvero cambiato è il modo in cui noi oggi gestiamo i dati.

I paragrafi che che seguono sono solo una rappresentazione dei grandi eventi che hanno segnato la storia dell’archiviazione dei dati. Se gli stessi paragrafi  fossero stati creati per rappresentarne l’adozione da parte del mercato avrebbero avuto un contenuto molto diverso.

Schede perforate meccaniche

Herman Hollerith ha inventato la carta perforata meccanica nel 1890. La società fondata da Hollerith è quella che sarebbe diventata poi IBM. Le schede perforate erano fatte di cartoncino spesso e avevano le stesse dimensioni di una banconota. La prima grande applicazione di questa scheda si è avuta in occasione del conteggio per il censimento del 1890. Questo è stato un enorme progresso in termini di produttività e tecnologia rispetto al mero calcolo manuale. Il censimento del 1890 è stato elaborato in un solo anno, mentre il censimento 1880  è stato elaborato in ben otto anni. Per poter utilizzare la scheda perforata erano necessari una perforatrice, una macchina tabulatrice e una macchina di smistamento; non è stato necessario utilizzare alcun computer vero e proprio.

Le schede e le macchine si sono evolute nel corso degli anni, ma il costo dei macchinari per l’uso delle schede era alto e tutto il sistema ingombrante. La scrittura di programmi software e la procedura per ottenere schede perforate richiedevano diversi mesi.

Per poter utilizzare il sistema, il programma software e i dati iniziali dovevano essere caricati nella macchina ogni volta, questo a causa della mancanza di una  RAM locale in grado di conservare tutti i programmi o i dati in uscita. Si trattava di un sistema dispendioso in termini di tempo e poco efficiente. Questa tecnologia, seppur obsoleta, è stata utilizzata nelle elezioni presidenziali degli Stati Uniti del 2000.

Nastro magnetico

Il nastro magnetico, il re dello storage, è stato inventato nel 1928 da Fritz Pfleumer. Originariamente veniva utilizzato per registrare contenuti audio ma a partire dal 1951 grazie all'invenzione di UNISERVO I, il primo registratore digitale,  il tape è diventato un vero e proprio dispositivo di memorizzazione. UNISERVO I è stato quindi implementato nel computer UNIVAC I. L'UNIVAC aveva un pannello come console e fino a 10 unità a nastro UNISERVO. Le unità a nastro UNISERVO avevano la funzionalità di leggere e di scrivere dati ad una velocità di 12,8 Kbps e una capacità di storage fino a 184 KB. Lo storage su nastro ha avuto una lunga evoluzione dalla sua invenzione. I nastri mainstream moderni (LTO6) sono in grado di memorizzare fino a 2,5 TB (6.25TB compresso), ulteriori progressi tecnologici  hanno permesso di archiviare fino a 185 TB in un singolo nastro. Se conservati correttamente, i nastri hanno una longevità difficile da battere.

Il nastro è un dispositivo di archiviazione di lungo termine per quei dati che non hanno bisogno di essere accessibili frequentemente (conosciuti anche come cold storage ovvero storage “freddo”).

Le principali sfide nella gestione dei nastri sono i costi di storage, di recupero dati e di manutenzione. In un mondo perfetto tutti i nastri di una società dovrebbero essere tenuti in un edificio climatizzato, perfettamente impilati e etichettati e dovrebbero avere cataloghi aggiornati che indicano i dati in essi archiviati. Un manager di data center dovrebbe controllarli periodicamente per verificare la presenza di eventuali danni e smaltirli quando raggiungono il termine del loro ciclo di vita. Chiunque gestisce lo storage su nastro sta pensando proprio ora che si tratti solo di un sogno!!!

La realtà è che la maggior parte delle persone incaricate di occuparsi dello storage su nastro non ha il tempo necessario per realizzare e mantenere tutte queste attività. Se viene richiesto loro di accedere ai dati archiviati sui tape con urgenza, senza alcun tipo di assistenza potrebbero impiegarci settimane, se non mesi per effettuare il restore, in base alla quantità di dati e alla condizione dei nastri.

Hard Disk Drive (HDD)

IBM ha governato il mercato dei computer per la maggior parte degli anni 50 e fino agli anni 80, non c’è da stupirsi quindi che proprio questa azienda abbia progettato e realizzato il primo hard disk nel 1956. Il Disk File IBM 350 fu stato progettato per funzionare su un IBM 305 RAMAC mainframe. Questo hard disk pesava circa 1 tonnellata ed era alto quasi 6 piedi. Il Disk File IBM 350 era  configurato con 50 dischi magnetici che contenevano 50.000 i settori e 3.75MB di dati. Il mainframe IBM 305 RAMAC in combinazione con l’IBM 350 Disk File consentiva alle aziende di registrare e mantenere i dati in tempo reale. Il sistema permetteva anche l’accesso casuale (random access) ai record e poteva produrre  contemporaneamente degli output tramite stampa o schede perforate. Questo è stato un grande progresso nella tecnologia che ha reso più facile l'accesso ai dati rispetto al passato. La sfida dei primi hard disk fino al 1980 è stata sulla dimensione dei drive.

Nel 1980 è arrivato sul mercato il drive da 5,25 pollici che ha ridotto significativamente lo spazio  necessario per le unità. Questo ha portato fino ai drive che utilizziamo oggi, ancora più piccoli di dimensioni, che vanno da 1 a 3,5 pollici, ma con una capacità di storage decisamente maggiore (un HDD da 3,5 pollici può contenere fino a 10 TB).

L’hard disk moderno ha reso molto più conveniente la gestione dei dati e il loro storage. Alta capacità, storage non volatile e prezzo al gigabyte più basso rispetto all’alternativa rappresentata dai drive a stato solido (SSD). Dall’altro lato, le lamentele, riguardano i consumi degli hard disk, la velocità e qualcuno dirà la durata nel tempo.

Virtualizzazione

Il primo programma, CP, a creare le macchine virtuali è stato distribuito nel 1968. Prima della sua uscita, per poter condividere a tempo le risorse su un mainframe inclusa la memoria, spazio disco e i cicli di CPU, era necessario dividerli manualmente tra gli utenti.

La condivisione delle risorse permetteva ad ogni utente di avere un proprio sistema operativo e di poter condividere le risorse complessive del mainframe. In definitiva, questo lo rese più facile da usare e più sicuro.

In caso di crash, solo il sistema operativo dell’utente era interessato dal problema e non l'intero sistema. Questa prima macchina virtuale è stata la base degli hypervisor di oggi. VMWare, leader di mercato nella virtualizzazione, ha iniziato a vendere un prodotto chiamato Virtual Workstation nel 1999 mentre nel 2001 è entrata nel mercato enterprise con ESX Server e GSX Server. Da allora VMWare ha continuato a sviluppare prodotti complementari.

La virtualizzazione - grazie ai progressi di VMware e Microsoft - ha rivoluzionato il modo in cui i dati vengono memorizzati in un data center. Con la virtualizzazione, i manager di data center sono in grado di massimizzare lo spazio di archiviazione e ridurre le spese per le componenti hardware. I server sono ora in grado di eseguire più operazioni su un unico server fisico invece di una  singola attività. Che cosa significa questo? Server provisioning più veloce, maggiore uptime (la capacità di spostare in maniera semplice una macchina virtuale da un server all'altro) e facilità di gestione delle risorse.

Solid State Drive (SSD)

Il primo solid state drive (drive a stato solido), Bulk Core, fu presentato al pubblico nel 1976 da Datram. Le sue dimensioni erano differenti rispetto ai suoi moderni predecessori: questo aveva infatti una larghezza di 19 pollici e un altezza di 15,75 pollici e aveva un telaio rack-mount. Il Bulk Core poteva contenere fino a 8 schede di memoria con 256KB di chip di RAM. Il vantaggio allora era rappresentato dalla mancanza di parti mobili e dal fatto che non avesse bisogno di un’alimentazione costante per lo storage dei dati.

La tecnologia dietro al primo SSD è la base che ha portato allo sviluppo degli SSD moderni che noi tutti conosciamo. L’ SSD nella sua forma attuale ha iniziato a comparire sul mercato intorno al 2001. Grazie alla mancanza di parti in movimento, i produttori sono stati in grado di ridurre le dimensioni del drive.

I vantaggi di un'unità SSD per la gestione dei dati sono rappresentati da capacità di storage e tempi di accesso più veloci. Questi sono fondamentali  in caso di accesso frequente ai dati e al sistema operativo. Altri benefici sono rappresentati da consumi, dimensioni e rumori ridotti così come la capacità di funzionare in ambienti estremi.

Software Defined Storage (SDS)

Il concetto di Software Defined Storage è nato negli anni 90 come un meccanismo comune per l'interoperabilità e la gestibilità tra produttori di hardware all'interno di una rete. Per paura che gli SDS avrebbero rimosso la differenziazione nelle componenti hardware, i produttori hanno aspettato a portare questo sistema sul mercato.

Quando la virtualizzazione ha iniziato a decollare così ha fatto anche la domanda di hardware che vi stava dietro. L’SDS è stato quindi introdotto per lavorare con la virtualizzazione per gestire i requisiti hardware e allocare il carico di lavoro. Grazie all’introduzione degli SDS la gestione dei dati è diventata ancora più efficiente così come l'utilizzo delle componenti hardware.

Cloud Storage

Sebbene l'idea di Cloud Storage fosse nata già negli anni 60, questa non ha preso vita fino all'arrivo di Salesforce.com nel 1999. Salesforce.com ha consentito l'erogazione di applicazioni aziendali tramite un sito web, qualcosa che fino a quel momento non era mai stato fatto. La possibilità di fornire un'applicazione su Internet ha aperto le porte per altre società di software simili. Amazon ha seguito l'esempio nel 2002 fornendo servizi su Internet (basati sul cloud) tra cui lo storage.

Nel 2006, Amazon ha iniziato a fornire il noleggio dei computer a piccole imprese per eseguire le applicazioni in cloud, nella forma in cui oggi la conosciamo. Da allora una serie di fornitori di cloud hanno iniziato ad erogare servizi simili e di recente sono state introdotte anche degli Standard ISO per regolamentare questo nuovo mercato.

La gestione dei dati nel cloud sposta la responsabilità della gestione dell'hardware dalle aziende al fornitore di cloud storage, riducendo i costi di hardware per il data center.

Conclusione

Il mondo della memorizzazione dei dati ha fatto una lunga strada. Dalla gestione delle schede perforate su hardware costosi fino al non dover gestire l’hardware del tutto.

Come si può vedere molte di queste "nuove" tecnologie erano in realtà vecchi concetti o tecnologie che hanno avuto una nuova vita. É bene dunque guardare al passato per andare avanti verso il futuro.

-

Fonti:

Servizi di recupero dati

Hai perso i tuoi dati? Contattaci subito per recuperarli.


Cosa pensano i clienti dei nostri servizi: