Strumenti informatici e tecnologie ICT - Il blog di Quanture

Architettura del data center: quale evoluzione per il futuro

Scritto da quanture_social | 30 luglio 2021

Non c’è dubbio: oltre che sulla salute delle persone, il Covid-19 ha avuto un importante impatto anche su molti settori e aziende. Impatto che si è riflettuto, e ancor più si rifletterà, anche sull’architettura del data center. L’ampia diffusione dello smart working ha infatti portato a una rapida decentralizzazione dell’infrastruttura IT. Così, molte conversazioni business sono passate dalle sale riunioni allo studio casalingo. In quasi tutti i settori, le persone per comunicare sono dovute ricorrere a servizi cloud forniti da un data center. Senza dimenticare poi l’uso di streaming, social media e gaming. 

Per affrontare la situazione, molte aziende hanno dovuto mettere in atto piani di digitalizzazione o accelerare quelli già attivi. Svariate delle soluzioni nate per far fronte a un’emergenza hanno avuto riscontri tanto positivi che saranno mantenute, se non addirittura rafforzate, in futuro. Perciò, se prima erano i data center a guidare l'aumento e la crescita delle tecnologie digitali, ora sarà la necessità di tecnologie digitali a guidare la crescita dei data center 

 

Ma in che modo? Quali sono le tendenze che si profilano per l’architettura del data center? 

 

La continuità del business 

Un aspetto emerso in maniera preponderante nel 2020 è la necessità di avere la certezza della continuità del business, anche a fronte di eventi catastrofici eccezionali. Questo, secondo un nuovo rapporto FutureScape, entro la fine del 2021 dovrebbe portare l'80% delle aziende a passare ad applicazioni e infrastrutture cloud-centriche al doppio della loro velocità pre-pandemica. Una tendenza che si rifletterà anche sui data center, per i quali Gartner prevede che nel 2021 si avrà un aumento della spesa del 6% rispetto al 2020, arrivando a toccare quota 200 miliardi di dollari. 

Con tutta probabilità, a questo contribuirà anzitutto il ricorso all’iperscalabilità, un modo molto efficace di soddisfare il crescente uso di servizi digitali che stanno generando enormi quantità di dati. L’uso “evoluto” della virtualizzazione nell’architettura del data center consente di avere grande efficienza e alta densità di macchine, una soluzione ideale per soddisfare le esigenze di ridondanza e computazionali di aziende in rapida crescita che hanno bisogno di grande scalabilità. C’è però il rovescio della medaglial’iperscalabilità viene usata in rack ad alta densità, che necessitano di un adeguato sistema alimentazione e raffreddamento. Cosa che non tutte le aziende possono realizzare, sia per la disponibilità degli ambienti sia per i costi. 

Un’alternativa è la co-locazione, sempre più di frequente usata dalle aziende. Questo servizio prevede di affittare lo spazio necessario da fornitori specializzati, ottenendo l’opportuna capacità di calcolo, di rete, di memoria e di storage come e quando necessario. Grazie a nuove soluzioni di monitoraggio intelligente, i sistemi in co-locazione consentono ai CIO un controllo diretto di tutti i parametri dei loro sistemi IT in qualsiasi momento. In questo senso, i data center possono offrire software di business intelligence e strumenti di monitoraggio sui modelli di utilizzo effettivo della rete, con un efficace controllo delle risorse. 

 

Il cloud on premise 

Tra i vantaggi della co-locazione c’è l’opportunità di aver un servizio pay-per-use. Per contro, i dati e le applicazioni non sono on premise, ma devono essere portati sulle macchine del provider. 

Però, per motivi, di latenzaconformità o per l’uso di applicazioni legacynon tutte le aziende possono permettersi di far uscire dati e applicazioni dal proprio perimetro. Nonostante ciò, possono comunque sfruttare i benefici del cloud grazie all’impiego di servizi di cloud on premise. In questo caso il data center è comunque “in casa”, ma delle macchine disponibili si usano solo quelle che servono e i costi riguardano unicamente l’effettivo utilizzo 

In questo modo, se le esigenze di business lo richiedono, si ha la possibilità di scalare velocemente senza dover acquistare nuovo hardware e non ci si deve nemmeno preoccupare dell’aggiornamento delle macchine o della sicurezza: è tutto a carico del fornitore del servizio. 

 

Il ruolo dell’automazione nell’architettura del data center

La competenza e la disponibilità di personalizzare sono oggi aspetti cruciali quando si deve allestire un data center. La strada che si sta seguendo per affrontarli è attraverso la scelta di soluzioni best class come HPE GreenLake. Questo significa che l’architettura del data center di nuova generazione prevede la disponibilità di strumenti basati sull’intelligenza artificiale che guideranno sistemi autonomi, facendogli intraprendere azioni tempestive per prevenire le interruzioni e garantire un'elevata disponibilità. Sistemi di monitoraggio intelligenti, che operano h24, invieranno avvisi ai responsabili IT se saranno superate soglie prestabilite di uso del data center. Un discorso analogo vale anche per la sicurezza e le prestazioni della rete. 

 

La sostenibilità 

Uno dei parametri che definisce la di capacità del data center è la densità di rack, ovvero il numero di server che si possono inserire all'interno di un rack o nell'intero data center. Più server significa più risorse, ma anche maggiori consumi. Nonostante i produttori stiano facendo il possibile per limitarli al massimo, IDC sostiene che la quantità di energia usata dai data center continua a raddoppiare ogni quattro anni. E l'uso di energia dei data center potrebbe superare più del 10% della fornitura globale di elettricità entro il 2030. 

Per ridurre il consumo di energia, l’architettura del data center, intesa però come architettura dell’edificio dove è collocato il data center, prevede di incorporare sistemi di risparmio energetico e la possibilità di sfruttare fonti alternative di energia, come le turbine solari, eoliche e a gas.