Big Data: focalizzare e gestire elementi chiave. Non si può negare che le aziende siano sottoposte a una notevole pressione generata dalla gestione di immensi volumi di dati complessi. Si prevede che il livello delle informazioni aumenterà dell’80% anno su anno e che la più grande sfida che ne deriverà sarà legata al sensibile incremento della gestione di dati non strutturati provenienti da desktop/laptop, file audio/video, immagini, database, social media e una varietà di altre tipologie di dati importanti per le aziende, ma frequentemente gestiti in “silos”.
Questa crescita inarrestabile è un fattore importante che infiamma il dibattito sui Big Data, il quale è ulteriormente alimentato dall’adozione universale della virtualizzazione, dal rapido passaggio ai servizi cloud, dall’influenza dei dispositivi mobile, dalla richiesta di operatività 24 ore su 24 e 7 giorni su 7.
Nonostante i Big Data portino con sé molti aspetti positivi circa nuovi modi di creare informazioni che offrano un reale valore di business, presentano anche nuove sfide per i dipartimenti IT, nel momento in cui le aziende si danno da fare per stare al passo con livelli di servizio di recovery sempre più esigenti e finestre di backup in continua riduzione – che spesso causano il sovraccarico delle reti e una tendenza a scegliere alternative più costose.
Il problema a questo punto è dovuto semplicemente al fatto che non si ha tempo, risorse o budget sufficienti per gestire, proteggere, indicizzare e conservare enormi volumi di dati non strutturati. Gli effetti negativi dei Big Data, quali rischi, complessità e costi, devono chiaramente essere presi in considerazione se si vuole che i vantaggi offerti abbiano la meglio.
Secondo recenti studi c’è ancora tanta strada da fare nella gestione efficace di questo cambiamento. Un recente sondaggio condotto da LogLogic su 207 professionisti di sicurezza e operazioni IT, ha evidenziato gap “significativi” tra la teoria e la pratica legati alla preparazione e alla gestione dei big data e degli ambienti cloud, con oltre un terzo degli intervistati che ha dichiarato di non comprendere il concetto di “big data”.
Infatti solo poco meno della metà (49 percento) ha affermato di essere “in qualche modo” o “molto” preoccupato per la gestione dei big data, mentre il 38 percento ha dichiarato di non averne chiaro il concetto. Un ulteriore 59 percento ha rivelato di non possedere i tool necessari per la gestione dei dati dai propri sistemi IT, finendo per utilizzare sistemi separati e disomogenei e persino fogli di calcolo.
Le soluzioni tradizionali non sono adeguate
Sfortunatamente, i metodi e gli strumenti di data management tradizionali non sono in grado di gestire e controllare l’esplosione dei dati. Creati originariamente per soddisfare esigenze specifiche, contribuendo così allo sviluppo di numerosi prodotti per backup, archiviazione e analisi e generando complessità nelle procedure di amministrazione, questi silos di informazioni stanno causando preoccupazione sugli aggiornamenti e alimentando il dibattito sui costi delle alternative rispetto alle attuali problematiche di manutenzione.
La carenza di reportistica su queste piattaforme riduce definitivamente la visibilità sui dati aziendali, oltre ad impattare sulla capacità di introdurre efficaci strategie di archiviazione.
Le soluzioni tradizionali presentano inoltre due fasi per ogni operazione di protezione – scansione e copia.
Per eseguire operazioni di backup, archiviazione e analisi dei file, ogni prodotto deve scansionare e copiare i file o le informazioni dai file system. Possono essere inserite soluzioni sintetiche, di deduplica e VTL per tentare di ridurre i problemi, ma una carenza di integrazione porta queste soluzioni a fallire nel lungo periodo. In genere, i tempi di scansione incrementale sui file system possono richiedere anche più tempo della copia dati vera e propria.
Operazioni di backup full effettuate regolarmente possono oltrepassare la finestra disponibile e richiedono cospicue risorse di rete e di server per gestire il processo. Si crea così un circolo vizioso.
La convergenza è la via da percorrere
CommVault crede che esista un approccio alternativo: l’adozione di una strategia di gestione dei dati unificata che racchiuda tutte le operazioni di copia degli stessi in un’unica soluzione in grado di movimentare, indicizzare e conservare i dati in una repository intelligente e virtuale che offra una base scalabile ed efficiente per e-Discovery, data mining e conservazione.
Tale approccio permette di effettuare la reportistica e l’analisi dei dati partendo dagli indici in modo da classificarli e implementare policy di archiviazione per il loro tiering abbassando così il costo dei media e di conseguenza anche il TCO.
I vantaggi sono immediatamente evidenti. La classificazione intelligente integrata nella copia dei dati aiuta a ridurre i tempi di scansione, consentendo alle aziende di mantenere finestre di backup incrementali. Una migliore movimentazione dei dati in un passaggio unico per backup, archiviazione e reportistica consente anche di ridurre le operazioni e i carichi dei server.
Integrazione, deduplica alla sorgente e backup full sintetico, riducono poi ulteriormente il carico della rete, mentre un indice singolo diminuisce all’istante i silos delle informazioni.
Invece di spostare il punto critico, una soluzione unificata, come Simpana, crea un unico processo che ha il potenziale di ridurre del 50% il tempo combinato tipicamente richiesto per backup, archiviazione e reporting rispetto ai metodi tradizionali e offre gli strumenti di gestione semplificata necessari per proteggere, gestire e accedere in modo economico ai dati sui sistemi che sono divenuti “troppo grandi”.
Nonostante esistano molti modi per creare i Big Data, le aziende che vogliono assumere il controllo della montagna di dati dovrebbero considerare l’adozione di una strategia “Copy Once Re-use Extensively” (CORE) se intendono gestire i Big Data a costi contenuti nel lungo periodo. I vantaggi chiave della strategia CORE sono semplici:
• Processa i dati una sola volta
• Archivia i dati una sola volta
• Conserva i dati una sola volta
• Ricerca i dati da un unico posto
• Centralizza la gestione delle policy
• Automatizza il tiering dei dati garantendo nel contempo flessibilità di hardware e di storage
• Sincronizza l’eliminazione dei dati e l’ottimizzazione automatica dello spazio
Indubbiamente molte aziende dovranno camminare sul sottile confine tra una raccolta spropositata di dati e una troppo ridotta, che le espone al rischio di perdere informazioni chiave, magari situate in una delle sorgenti emergenti di dati – problema rilevante nell’odierno mondo dell’information-on-demand, della regulation e della compliance.
La semplificazione dei processi di e-Discovery è stata citata come l’elemento di pressione principale nella ricerca Forrester “Global Message Archiving Online Survey”, appena sopra la riduzione dei costi di storage e il potenziamento delle prestazioni delle applicazioni. Ritengo che la convergenza rappresenti in assoluto il modo migliore per facilitare il reperimento di informazioni chiave nel mucchio dei Big Data.
Ciò su cui dovrebbero essere focalizzate le aziende è l’utilizzo di una piattaforma che consenta loro di lavorare con le informazioni per gestire e proteggere in modo intelligente da un’unica console enormi volumi di dati sparsi tra applicazioni, hypervisor, sistemi operativi e infrastrutture.
Un approccio basato su policy, volto alla protezione, archiviazione e recupero di vasti volumi di dati automatizzando nel contempo l’amministrazione, rappresenterà sempre il modo migliore per ottimizzare la produttività IT e ridurre i costi di supporto generali. L’eliminazione dei processi manuali e il tiering continuo di dati su storage fisico, virtuale e cloud, aiuta a diminuire i costi di amministrazione, incrementando di contro l’efficienza operativa – consentendo ai dipartimenti IT di fare di più con meno.
Un unico data store consentirebbe alle aziende di facilitare la conservazione dei dati e di eliminarne la ridondanza durante i processi di revisione che sono attualmente considerati una delle principali cause dell’innalzamento dei costi di gestione dei dati stessi. La capacità di navigare, ricercare ed effettuare il mining dei dati in modo più semplice, potrebbe finalmente far vedere i Big Data come un asset e non come un ostacolo.
Di Cristian Meloni, PreSales & PS Manager, CommVault Italia