Data center iperscalabili: il futuro dell'informatica

Pubblicato: 2022-03-21

Non c'è mai stato un bisogno così grande di infrastrutture informatiche e data center come oggi, con miliardi di persone e decine di miliardi di dispositivi online. Cosa consente alle aziende di far crescere le operazioni più rapidamente che mai? Data center iperscalabili.

Qual è la definizione di data center iperscalabile?

I data center tradizionali sono edifici centralizzati che ospitano dati e applicazioni vitali per le aziende. Memorizzano i dati e forniscono agli utenti l'accesso alle risorse utilizzando sistemi e apparecchiature informatiche e di rete.

I data center iperscalabili sono sostanzialmente più grandi dei normali data center, con la capacità di contenere milioni di server e macchine virtuali. Forniscono un'infrastruttura altamente reattiva, scalabile ed economica che semplifica e snellisce i processi aziendali. Con l'aumento dei requisiti di archiviazione e utilizzo dei dati delle aziende, i data center iperscalabili diventeranno sempre più importanti.

Architettura

I data center iperscalabili hanno una dimensione di almeno 10.000 piedi quadrati e ospitano oltre 5.000 server collegati da reti in fibra ad altissima velocità. A Fort Worth, in Texas, il quinto data center iperscalabile di Facebook sarà composto da cinque edifici per un totale di oltre 2,5 milioni di piedi quadrati.

I data center iperscalabili utilizzano una nuova architettura server con rack più grandi che possono contenere più componenti e sono facilmente intercambiabili per consentire flessibilità. Ciò consente ai server di disporre di vari alimentatori e dischi rigidi, ad esempio, e fornitori iperscalabili come Facebook e Google possono creare supercomputer per soddisfare le loro esigenze.

Traffico

Il ridimensionamento viene utilizzato nei data center iperscalabili per accettare, elaborare e instradare il traffico. Ne sono un esempio il ridimensionamento orizzontale per espandere il numero di macchine e il ridimensionamento verticale per migliorare la potenza delle macchine già in uso.

Automazione

Un data center iperscalabile consente alle aziende di controllare tutte le aree di produzione attraverso un'automazione costante. Ciò comporta la gestione di siti Web ad alto traffico e carichi di lavoro complessi come crittografia, sequenziamento genomico e grafica tridimensionale che richiedono un'elaborazione specializzata.

La dimensione dell'iperscala

La capacità di un sistema informatico di adattarsi all'aumento della domanda viene definita "iperscala". I computer si basano sulle risorse di un singolo nodo o di un gruppo di nodi. L'aumento della potenza di elaborazione, della memoria, dell'infrastruttura di rete o delle risorse di archiviazione è spesso il risultato del ridimensionamento di alcuni aspetti del nostro sistema informatico.

Lo scopo del ridimensionamento è continuare a costruire un sistema stabile, indipendentemente dal fatto che quel sistema sia basato su cloud, big data, storage distribuito o un mix di tutti e tre, come sta diventando sempre più comune in questi giorni. Naturalmente, "iper" significa "estremo" o "eccessivo". L'iperscalabilità non significa semplicemente essere in grado di scalare, ma essere in grado di scalare in modo massiccio e rapido.

Spesso concepiamo il "ridimensionamento", che è una strategia architettonica verticale che implica l'aggiunta di potenza aggiuntiva ai dispositivi esistenti. Tuttavia, la "scalabilità orizzontale" o l'utilizzo di una strategia orizzontale, come l'aumento del numero complessivo di dispositivi nell'ambiente informatico, è un'altra tecnica per aumentare la capacità.

Le aziende si occupano di hyperscaling in tre aree: l'infrastruttura fisica e i sistemi di distribuzione che supportano i data center, la capacità di scalare le attività di elaborazione (ordini di grandezza, sia in termini di prestazioni complessive che nell'avanzamento dello status quo dell'azienda) e il potere finanziario e le fonti di reddito delle aziende che richiedono tali sistemi iperscalabili.

La rinascita di Hyperscale

Man mano che il nostro mondo diventa tecnologicamente più avanzato, la domanda di servizi di archiviazione e elaborazione è aumentata, così come la necessità di strutture per soddisfare queste richieste.

L'infrastruttura IT su larga scala è stata resa necessaria da due sviluppi. Quando le piattaforme di cloud computing sono diventate popolari per la prima volta alla fine degli anni 2000, fungevano da aggregatori della domanda per le aziende che desideravano migrare i propri carichi di lavoro IT locali nel cloud. Gli utenti possono fornire risorse e crescere rapidamente utilizzando piattaforme cloud, cosa che può essere eseguita da remoto e quasi istantaneamente. Questi fornitori di servizi potrebbero quindi stimare la domanda futura e "acquistare all'ingrosso" per soddisfarla.

Inoltre, la rapida comparsa di SaaS, streaming e social media spinge il settore in avanti. Per soddisfare le richieste dei consumatori, tutti e tre questi tipi di attività richiedono grandi quantità di storage, elaborazione e larghezza di banda.

Data center aziendali e iperscalabili

Un data center, o qualsiasi struttura che ospita sistemi informatici e componenti correlati come sistemi di archiviazione e telecomunicazioni, è al centro della maggior parte delle aziende. Queste impostazioni hanno anche ridondanze in caso di alimentazione, variabili ambientali o guasti ai sistemi di sicurezza. Le dimensioni dell'organizzazione e della potenza di calcolo determinano le dimensioni e il numero di data center richiesti, tuttavia è normale che un singolo data center per un'azienda di grandi dimensioni consumi la stessa quantità di elettricità di una piccola città. È anche molto raro che un'azienda abbia solo bisogno di uno o due di questi data center.

Ci vuole un grande sforzo per mantenere un data center aziendale senza problemi. Mantieni costantemente l'ambiente del data center per garantire un comportamento uniforme della macchina, impostando un piano di patching che consenta patch coerenti riducendo al minimo i tempi di inattività e rimescolando per affrontare qualsiasi tipo di guasto inevitabile.

Confronta e confronta una piccola impresa con Google o IBM. Sebbene non esista un'unica definizione onnicomprensiva per HDC, sappiamo che sono strutture sostanzialmente più grandi rispetto ai tradizionali data center aziendali. Quando un data center ha più di 5.000 server e copre più di 10.000 piedi quadrati, è considerato "iperscalabile", secondo la società di ricerche di mercato International Data Corporation. Naturalmente, questi sono i luoghi che soddisfano solo i criteri per un HDC. Centinaia di migliaia, se non milioni, di server sono ospitati in alcuni data center iperscalabili.

Ma, secondo IDC, c'è di più che distingue questi tipi di strutture. Le applicazioni greenfield, progetti senza limitazioni, richiedono un'architettura che consenta un scale-out omogeneo dei data center iperscalabili. Aggiungi ad essa una massiccia infrastruttura che sta diventando progressivamente disaggregata, a densità più elevata ed efficiente dal punto di vista energetico.

Anche le aziende iperscalabili che fanno affidamento su questi data center hanno requisiti di iperscalabilità. Mentre la maggior parte delle aziende commerciali può fare affidamento su apparecchiature standard di fornitori di tecnologia, le aziende iperscalabili devono personalizzare praticamente ogni componente del proprio ambiente informatico. Aggiunta di capacità specializzate di dimensioni enormi, personalizzazione di ogni elemento dell'esperienza informatica e armeggiare con ogni impostazione Nessuno può farlo meglio di quanto l'azienda possa farlo da sola a questa portata. Il costo di queste richieste è ciò che determina chi è idoneo a entrare a far parte del club iperscalabile.

Naturalmente, i prezzi possono essere una barriera all'ingresso per le organizzazioni che gestiscono data center iperscalabili, ma non è questo il problema. Ecco cos'è l'automazione.

Le aziende che costruiscono hyper data center si concentrano invece sull'automazione, o "auto-guarigione", una parola che implica un ambiente in cui si verificano guasti e ritardi inevitabili, ma il sistema è così ben controllato e automatizzato che si adatterà al diritto stesso . Questa automazione autorigenerante è fondamentale poiché promuove una grande efficienza dei dati.

Quali tipi di persone usano l'iperscalabilità?

I provider iperscalabili attualmente possiedono e gestiscono il triplo di data center su larga scala rispetto al 2013. Non è difficile indovinare quali aziende sarebbero in cima alla lista.

Amazon, Microsoft, Google e IBM hanno tutti data center iperscalabili in tutte le principali aree del globo, con Facebook, Apple, Oracle e Alibaba, il colosso cinese del cloud, non molto indietro.

In qualsiasi momento, questi A-lister possono abbattere oltre 70 megawatt e centinaia di migliaia di piedi quadrati.

Le aziende con requisiti attuali inferiori, ma che desiderano comunque l'opportunità di sviluppare pochi megawatt alla volta, sono le prossime nella fila. Salesforce, SAP, Dropbox, Twitter, Uber e Lyft sono tra i suoi membri.

L'interno di un data center iperscalabile

Quincy, una piccola città nel cuore rurale dello Stato di Washington, ospita molti data center iperscalabili per aziende come Microsoft, Yahoo e Dell. La regione fa appello a queste attività per gli stessi motivi che fanno i suoi agricoltori: clima relativamente fresco, prezzi dei terreni bassi e molto spazio aperto. Se si considera quanto siano enormi, le distese spalancate sono notevoli. Quincy HDC di Microsoft, uno degli oltre 45 in tutto il mondo, dispone di 24.000 miglia di cavo di rete. Per un confronto più a misura d'uomo, è solo marginalmente inferiore al diametro della Terra o di sei Rio delle Amazzoni.

Un altro Microsoft HDC che supporta Azure è a Singapore, che non è esattamente una grande città. C'è abbastanza cemento in quel data center iperscalabile per costruire una passerella lunga 215 miglia che collega Londra e Parigi. Un data center iperscalabile è definito dalla sua scala e complessità. Poiché gran parte della tecnologia è automatizzata, molti HDC impiegano meno specialisti della tecnologia rispetto a molti data center aziendali, che si affidano a una grande forza lavoro a tempo pieno in una varietà di specialità. Infatti, poiché i dati in questi centri sono il prodotto, è probabile che le aziende iperscalabili impieghino più personale di sicurezza rispetto al personale tecnico degli HDC.

L'iperscalabilità è migliore della colocation?

Come affermato in precedenza, tutti i principali utenti di data center utilizzano un metodo build-and-lease. Molte variabili influenzano questo, inclusi tempo, costi, richieste future e altro. Questi fornitori di colocation sono diventati più inventivi nella loro ricerca di aziende iperscalabili, che vanno dall'agire come loro braccio di sviluppo alla progettazione in base alle loro esigenze fino alla semplice offerta di un guscio alimentato e consentendo all'utente di fornire l'attrezzatura interna.

I servizi di colocation sono generalmente utilizzati da aziende più piccole, ma comunque iperscalabili. Queste attività si comportano più come clienti di colocation standard, sebbene di solito abbiano piani di espansione a lungo termine.

5 data center iperscalabili con la massima capacità

A partire dal 2021, ci saranno oltre 600 data center iperscalabili. Confrontiamo i cinque data center iperscalabili più grandi e le regioni che servono con la definizione tradizionale di data center iperscalabile, che è di 5.000 server su 10.000 piedi quadrati.

L'Inner Mongolian Information Center è un luogo in cui le persone possono ottenere informazioni sul proprio paese

  • 10,7 milioni di piedi quadrati è l'area totale dell'edificio.
  • L'Inner Mongolian Information Hub, uno dei sei data center di Hohhot di proprietà di China Telecom, è il più grande.

Hohhot Data Center si trova a Hohhot, in Cina.

  • 7,7 milioni di piedi quadrati in totale
  • Il secondo data center più grande è l'Hohhot Data Center di China Mobile, anch'esso situato nell'hub informativo di Hohhot.

Il campus della Cittadella

  • 7,2 milioni di piedi quadrati in totale
  • Il Citadel Campus, di proprietà della multinazionale tecnologica Switch e situato nel nord del Nevada, è il data center più grande del mondo. Per alimentarlo vengono utilizzati fino a 650 megawatt di energia rinnovabile (MW). La Silicon Valley ha una latenza di 4,5 millisecondi (ms), Silicon Beach ha una latenza di 9 ms e Las Vegas ha un ritardo di 7 ms.

Langfang, centro informativo internazionale di Range con sede in Cina

  • 6,6 milioni di piedi quadrati è l'area totale.
  • Il Range International Information Hub è un super data center di quarta generazione costruito in collaborazione con IBM e situato a Langfang, in Cina, tra Pechino e Tientsin.

Las Vegas, Nevada: cambia SuperNAP

  • 3,3 milioni di piedi quadrati è la superficie totale della proprietà.
  • Switch possiede anche SuperNAP, che ha sede a Las Vegas. Nel SuperNAP vengono utilizzati fino a 531 MW di energia verde.

Iperscala nel futuro

Le aziende iperscalabili continuano a dominare l'ambiente, influenzando il design, l'ubicazione e i prezzi su tutta la linea. Anche se determinate aziende potrebbero cambiare, le tendenze alla base della digitalizzazione, dell'IoT e della generazione di dati continueranno ad alimentare la domanda di più data center in futuro. E l'iperscala costituirà una frazione significativa di questi.