Stabilire il reale costo di un data center, il total cost of ownership (TCO), è un’operazione che mette sempre più in difficoltà i responsabili IT perché le variabili in gioco continuano ad aumentare. Inoltre, i costi nascosti sono tali e tanti che spesso fanno “sforare” in modo sostanziale il budget previsto. Così, i CIO sono costantemente alla ricerca del modo di avere spese certe e precise pianificazioni dei budget. D’altro canto, la priorità è sempre ridurre al minimo il TCO cercando comunque di implementare nuove tecnologie non appena disponibili per fornire il più efficace aiuto possibile al business. Ma come fare per ottenere questo risultato?
Un primo passo potrebbe essere seguire un approccio strategico alla selezione di nuovi prodotti oppure razionalizzare l’uso di quelli posseduti. Questo può aiutare a gestire le spese in conto capitale (CapEx) e a risparmiare denaro nel lungo periodo.
Non va però dimenticato che ci sono anche le spese operative (OpEx), come manutenzione dell'infrastruttura, alimentazione, networking e personale, che possono avere un grande impatto sul TCO. È poi importante valutare anche come le scelte dell'infrastruttura guidano i costi nascosti dei task di calcolo non ottimizzati, della connettività di rete, dei tempi di inattività, del raffreddamento e dell’inefficienza energetica.
Un’indagine di McKinsey riporta che i server tendono a essere utilizzati solo dal 5% al 15% della loro effettiva capacità. Però anche quando sono inattivi consumano molta energia. Non solo. Uptime Institute ha rilevato che il 30% dei server in tutto il mondo è inutilizzato. Questo, dato che un server consuma dal 30% al 40% della potenza massima anche quando è solo acceso e non esegue nessun task, si traduce in una perdita di 30 miliardi di dollari l'anno per elettricità che va sprecata in tutto il mondo.
Queste considerazioni evidenziano che, nel calcolo del TCO, è necessario valutare l'intero ciclo di vita di ogni prodotto dell’infrastruttura. Le decisioni prese potrebbero avere effetti per diversi anni.
La trasformazione digitale sta portando le organizzazioni di tutti i settori a cambiare i modelli di business. In questa nuova economia on-demand, i team IT devono supportare le loro aziende in modo agile e flessibile, ma, come detto, i costi del data center non devono lievitare, tutt’altro. Le organizzazioni hanno preso coscienza che la via per raggiungere questo risultato è il cloud. Tuttavia, le strategie cloud possono differire in modo significativo e molte aziende sono obbligate a usare soluzioni IT on-premise per conformarsi a requisiti di sicurezza e normativi, investimenti di capitale già effettuati o requisiti prestazionali e di networking. IDC sostiene che il 70% delle applicazioni è ancora fuori dal cloud pubblico.
Però anche in questi casi i costi del data center CapEx e OpEx possono essere drasticamente ridotti scegliendo un servizio gestito, come l’Infrastructure as a service (IaaS). Una scelta di questo tipo consente di avere on premise tutti i vantaggi del cloud pubblico, come macchine di ultima generazione, manutenzione, aggiornamenti, facile e rapida scalabilità senza overprovisioning, ma con costi legati solo alle risorse effettivamente utilizzate.
Secondo un’indagine effettuata da Forrester presso molteplici clienti HPE, con un’IaaS come HPE GreenLake è possibile risparmiare fino al 40% del TCO, potendo evitare l'overprovisioning e le spese per il refresh della tecnologia, soprattutto quando i requisiti dell'infrastruttura stessa continuano a crescere a fronte dell’incremento del business. Con HPE GreenLake, le aziende possono utilizzare una tecnologia moderna e più potente e scalare facilmente verso l'alto (o verso il basso) in base alle singole esigenze aziendali.
Il campione intervistato da Forrester ha notato anche una riduzione significativa del time-to-market per i progetti IT globali. Le organizzazioni hanno ottenuto questo beneficio avendo a disposizione on-site risorse extra già pronte all’uso. L'impiego di queste risorse è misurato e quindi le aziende pagano solo quello che usano, non quello che hanno installato. HPE GreenLake offre anche l’opportunità di avere una reportistica self-service per preventivare e prevedere future richieste di capacità di calcolo. Questo migliora l'efficienza dell'esecuzione dei progetti IT, permette di scalare rapidamente e riduce il tempo speso per procurarsi le risorse per allinearsi con le esigenze aziendali.
Sostituendo l’infrastruttura legacy con HPE GreenLake (e con i servizi gestiti offerti da un partner certificato come Netmind) è poi possibile evitare spese di manutenzione e di servizi professionali. In questo senso, il campione intervistato da Forrester ha affermato di aver avuto un risparmio medio del 60% dei costi del data center e ha citato il supporto di HPE come un fattore significativo nella riduzione di questi costi.
Da ultimo, ma non per questo meno importante, l’impiego di HPE GreenLake ha permesso di avere un aumento della produttività delle risorse IT del 40%. E il supporto fornito nelle scelte organizzative dell'infrastruttura on-premise e nei task di gestione del data center (compresi amministrazione e pianificazione), ha offerto ai professionisti IT aziendali l’opportunità di assumere un ruolo più strategico a supporto delle iniziative di business.
Il modello Greenlake è vincente e consolidato ed è per questo che Netmind ha deciso di inserirlo all’interno della propria offerta. Tuttavia, un ruolo basilare nella creazione di una soluzione ad hoc, capace di soddisfare appieno le necessità di un’azienda, lo rivestono tutti i servizi proattivi forniti direttamente dalla stessa Netmind. L’insieme di infrastruttura e servizi gestiti permette di avere a sempre a disposizione un single point of contact che consente di dimenticarsi completamente delle attività di manutenzione, aggiornamento e supporto. E anche dei costi che tali attività comportano.