Hiperskalowe centra danych: przyszłość komputerów
Opublikowany: 2022-03-21Nigdy nie było większego zapotrzebowania na infrastrukturę komputerową i centra danych niż dzisiaj, z miliardami ludzi i dziesiątkami miliardów urządzeń online. Co pozwala firmom rozwijać działalność szybciej niż kiedykolwiek wcześniej? Centra danych w hiperskali.
Jaka jest definicja hiperskalowego centrum danych?
Tradycyjne centra danych to scentralizowane budynki, w których przechowywane są ważne dane i aplikacje dla firm. Przechowują dane i zapewniają użytkownikom dostęp do zasobów, wykorzystując systemy i sprzęt komputerowy i sieciowy.
Centra danych w hiperskalowaniu są znacznie większe niż zwykłe centra danych i mogą pomieścić miliony serwerów i maszyn wirtualnych. Zapewniają wysoce responsywną, skalowalną i ekonomiczną infrastrukturę, która upraszcza i usprawnia procesy korporacyjne. Wraz ze wzrostem wymagań w zakresie przechowywania i użytkowania danych w przedsiębiorstwach, hiperskalowe centra danych będą nabierały coraz większego znaczenia.
Architektura
Centra danych o dużej skali mają powierzchnię co najmniej 10 000 stóp kwadratowych i obsługują ponad 5000 serwerów połączonych ultraszybkimi sieciami światłowodowymi. W Fort Worth w Teksasie piąte hiperskalowe centrum danych Facebooka będzie składać się z pięciu budynków o łącznej powierzchni ponad 2,5 miliona stóp kwadratowych.
Centra danych w hiperskalowaniu wykorzystują nowatorską architekturę serwerów z większymi szafami, które mogą pomieścić więcej komponentów i które można łatwo wymieniać, aby zapewnić elastyczność. Dzięki temu serwery mogą mieć na przykład różne zasilacze i dyski twarde, a dostawcy hiperskalowania, tacy jak Facebook i Google, mogą tworzyć superkomputery, aby sprostać ich wymaganiom.
Ruch drogowy
Skalowanie jest używane w hiperskalowych centrach danych do akceptowania, przetwarzania i kierowania ruchu. Skalowanie poziome w celu zwiększenia liczby maszyn i skalowanie w pionie w celu zwiększenia mocy już używanych maszyn to przykłady.
Automatyzacja
Hiperskalowe centrum danych umożliwia przedsiębiorstwom kontrolowanie wszystkich obszarów produkcji poprzez ciągłą automatyzację. Obejmuje to zarządzanie witrynami internetowymi o dużym natężeniu ruchu i złożonymi zadaniami, takimi jak szyfrowanie, sekwencjonowanie genomowe i grafika trójwymiarowa, które wymagają specjalistycznego przetwarzania.
Rozmiar hiperskali
Zdolność systemu komputerowego do dostosowywania się do rosnącego popytu jest określana jako „hiperskala”. Komputery polegają na zasobach pojedynczego węzła lub grupy węzłów. Zwiększenie mocy obliczeniowej, pamięci, infrastruktury sieciowej lub zasobów pamięci masowej jest często wynikiem skalowania niektórych aspektów naszego systemu komputerowego.
Celem skalowania jest utrzymanie stabilnego systemu, niezależnie od tego, czy jest on oparty na chmurze, big data, rozproszonej pamięci masowej, czy na połączeniu wszystkich trzech, co staje się coraz bardziej powszechne w dzisiejszych czasach. Oczywiście „hiper” oznacza „ekstremalny” lub „nadmierny”. Hiperskalacja to nie tylko możliwość skalowania, ale także masowego i szybkiego skalowania.
Często wyobrażamy sobie „skalowanie w górę”, które jest pionową strategią architektoniczną, która polega na dodawaniu dodatkowej mocy do istniejących urządzeń. Jednak „skalowanie w poziomie” lub stosowanie strategii horyzontalnej, takiej jak zwiększenie ogólnej liczby urządzeń w środowisku komputerowym, to kolejna technika zwiększania pojemności.
Firmy zajmują się hiperskalowaniem w trzech obszarach: infrastruktura fizyczna i systemy dystrybucyjne obsługujące centra danych, możliwość skalowania zadań obliczeniowych (rzędy wielkości, zarówno pod względem ogólnej wydajności, jak i postępu w status quo firmy) oraz siła finansowa i źródła przychodów firm, które wymagają takich systemów hiperskalowych.
Odrodzenie hiperskali
W miarę jak nasz świat staje się coraz bardziej zaawansowany technologicznie, rośnie zapotrzebowanie na usługi przechowywania i przetwarzania danych, ponieważ zapotrzebowanie na obiekty spełniają te wymagania.
Infrastruktura informatyczna na dużą skalę była wymuszona dwoma zmianami. Kiedy platformy przetwarzania w chmurze po raz pierwszy stały się popularne pod koniec 2000 roku, służyły jako agregatory popytu dla firm, które chciały przenieść swoje lokalne obciążenia IT do chmury. Użytkownicy mogą dostarczać zasoby i szybko się rozwijać, korzystając z platform w chmurze, co można zrobić zdalnie i niemal natychmiast. Ci usługodawcy mogą następnie oszacować przyszłe zapotrzebowanie i „kupować hurtowo”, aby go zaspokoić.
Co więcej, szybkie pojawienie się SaaS, streamingu i mediów społecznościowych napędza sektor do przodu. Aby sprostać wymaganiom swoich konsumentów, wszystkie trzy tego rodzaju firmy wymagają ogromnych ilości pamięci, mocy obliczeniowej i przepustowości.
Centra danych korporacyjne a hiperskalowe
Centrum danych lub dowolna struktura, w której znajdują się systemy komputerowe i powiązane komponenty, takie jak systemy pamięci masowej i telekomunikacja, jest sercem większości firm. Te ustawienia mają również nadmiarowość w przypadku zasilania, zmiennych środowiskowych lub awarii systemów bezpieczeństwa. Wielkość organizacji i wielkość mocy obliczeniowej dyktują wielkość i liczbę wymaganych centrów danych, jednak normalne jest, że jedno centrum danych dla dużej firmy zużywa taką samą ilość energii elektrycznej jak małe miasto. Bardzo rzadko zdarza się również, że firma potrzebuje tylko jednego lub dwóch takich centrów danych.
Sprawne działanie biznesowego centrum danych wymaga wiele wysiłku. Ciągle utrzymujesz środowisko centrum danych, aby zagwarantować jednolite zachowanie maszyny, ustalając plan poprawek, który pozwala na spójne poprawki, jednocześnie minimalizując przestoje, i starając się rozwiązać każdy rodzaj nieuniknionej awarii.
Porównaj i porównaj małą firmę z Google lub IBM. Chociaż nie ma jednej, całościowej definicji HDC, wiemy, że są to znacznie większe obiekty niż tradycyjne biznesowe centra danych. Według firmy zajmującej się badaniem rynku International Data Corporation, gdy centrum danych ma ponad 5000 serwerów i zajmuje powierzchnię ponad 10 000 stóp kwadratowych, jest uważane za „hiperskalę”. Oczywiście są to miejsca, które spełniają tylko kryteria HDC. W niektórych hiperskalowych centrach danych znajdują się setki tysięcy, jeśli nie miliony serwerów.
Jednak według IDC, tego typu obiekty wyróżnia więcej. Aplikacje greenfield — projekty bez ograniczeń — wymagają architektury, która pozwala na jednorodne skalowanie hiperskalowych centrów danych. Dodaj do tego ogromną infrastrukturę, która staje się stopniowo dezagregowana, gęstsza i energooszczędna.
Firmy hiperskalowe, które opierają się na tych centrach danych, również mają wymagania dotyczące hiperskalowania. Podczas gdy większość komercyjnych firm może polegać na gotowym sprzęcie od dostawców technologii, firmy hiperskalowe muszą dostosować praktycznie każdy element swojego środowiska komputerowego. Dodawanie specjalistycznych możliwości w ogromnych rozmiarach, dostosowywanie każdego elementu doświadczenia komputerowego i majstrowanie przy każdym ustawieniu Nikt nie może zrobić tego lepiej niż korporacja może zrobić to sama na taką skalę. Koszt tych żądań decyduje o tym, kto kwalifikuje się do dołączenia do klubu hiperskalowego.
Oczywiście ceny mogą stanowić barierę wejścia dla organizacji prowadzących hiperskalowe centra danych, ale to nie jest problem. Na tym polega automatyzacja.
Firmy, które budują hipercentra danych zamiast tego koncentrują się na automatyzacji lub „samonaprawianiu”, co oznacza środowisko, w którym występują nieuniknione awarie i opóźnienia, ale system jest tak dobrze kontrolowany i zautomatyzowany, że sam się dostosuje . Ta samonaprawiająca się automatyzacja ma kluczowe znaczenie, ponieważ promuje dużą wydajność danych.
Jakie typy ludzi używają hiperskali?
Dostawcy rozwiązań hiperskalowych są obecnie właścicielami i zarządzają trzykrotnie większą liczbą wielkoskalowych centrów danych niż w 2013 r. Nietrudno zgadnąć, które firmy znalazłyby się na szczycie tej listy.
Amazon, Microsoft, Google i IBM mają hiperskalowe centra danych w każdym większym obszarze świata, a Facebook, Apple, Oracle i Alibaba, chiński gigant chmurowy, nie są daleko w tyle.
W dowolnym momencie te A-listery mogą zniszczyć ponad 70 megawatów i setki tysięcy stóp kwadratowych.
Następne w kolejce są firmy o mniejszych bieżących wymaganiach, ale wciąż pragnące możliwości rozwoju kilku megawatów na raz. Wśród jej członków są Salesforce, SAP, Dropbox, Twitter, Uber i Lyft.
Wnętrze hiperskalowanego centrum danych
Quincy, maleńkie miasteczko w wiejskim rdzeniu stanu Waszyngton, jest domem dla wielu hiperskalowych centrów danych takich firm, jak Microsoft, Yahoo i Dell. Region przemawia do tych firm z tych samych powodów, co rolnicy: stosunkowo chłodna pogoda, niskie ceny gruntów i dużo otwartej przestrzeni. Kiedy weźmiesz pod uwagę, jak ogromne są one, szeroko otwarte przestrzenie są niezwykłe. Microsoft Quincy HDC, jeden z ponad 45 na całym świecie, ma 24 000 mil kabla sieciowego. Dla porównania w skali człowieka, to tylko nieznacznie mniej niż średnica Ziemi lub sześciu Amazonek.
Inny Microsoft HDC obsługujący platformę Azure znajduje się w Singapurze, który nie jest dokładnie dużym miastem. W tym hiperskalowym centrum danych jest wystarczająco dużo betonu, aby zbudować 215-kilometrowy chodnik łączący Londyn z Paryżem. Hiperskalowe centrum danych jest definiowane przez swoją skalę i złożoność. Ponieważ tak duża część technologii jest zautomatyzowana, wiele centrów HDC zatrudnia mniej specjalistów technicznych niż wiele biznesowych centrów danych, które opierają się na dużej liczbie pełnoetatowych pracowników w różnych specjalnościach. Rzeczywiście, ponieważ dane w tych centrach są produktem, jest prawdopodobne, że korporacje hiperskalowe zatrudniają więcej pracowników ochrony niż personel techniczny w HDC.
Czy hiperskalowanie jest lepsze niż kolokacja?
Jak już wspomniano, wszyscy główni użytkownicy centrów danych korzystają z metody budowania i dzierżawy. Wpływa na to wiele zmiennych, w tym czas, koszty, przyszłe wymagania i inne. Ci dostawcy kolokacji stali się bardziej pomysłowi w pogoni za firmami hiperskalowymi, począwszy od działania jako ich ramię rozwojowe, poprzez projektowanie zgodnie z ich wymaganiami, aż po oferowanie zasilanej powłoki i umożliwienie użytkownikowi dostarczania wewnętrznego sprzętu.
Z usług kolokacji korzystają na ogół mniejsze, ale nadal hiperskalowe przedsiębiorstwa. Firmy te zachowują się bardziej jak standardowi klienci kolokacji, choć zazwyczaj mają długoterminowe plany ekspansji.
5 hiperskalowych centrów danych o największej pojemności
Od 2021 r. powstanie ponad 600 hiperskalowych centrów danych. Porównujemy pięć największych hiperskalowych centrów danych i obsługiwane przez nie regiony z tradycyjną definicją hiperskalowego centrum danych, która obejmuje 5000 serwerów na 10 000 stóp kwadratowych.
Centrum Informacji Mongolskiej Wewnętrznej to miejsce, w którym ludzie mogą uzyskać informacje o swoim kraju
- Całkowita powierzchnia budynku to 10,7 miliona stóp kwadratowych.
- Inner Mongolian Information Hub, jedno z sześciu centrów danych w Hohhot, należące do China Telecom, jest największe.
Centrum danych Hohhot znajduje się w Hohhot w Chinach.
- Łącznie 7,7 miliona stóp kwadratowych
- Drugim co do wielkości centrum danych jest Hohhot Data Center firmy China Mobile, które również znajduje się w centrum informacyjnym Hohhot.
Kampus Cytadeli
- Łącznie 7,2 miliona stóp kwadratowych
- Kampus Citadel, należący do międzynarodowej korporacji technologicznej Switch i zlokalizowany w północnej Nevadzie, jest największym na świecie centrum danych. Do jego zasilania wykorzystuje się do 650 megawatów energii odnawialnej (MW). Silicon Valley ma opóźnienie 4,5 milisekundy (ms), Silicon Beach ma opóźnienie 9 ms, a Las Vegas 7 ms.
Langfang, chińskie międzynarodowe centrum informacyjne Range
- Całkowita powierzchnia to 6,6 miliona stóp kwadratowych.
- Range International Information Hub to supercentrum danych czwartej generacji, zbudowane we współpracy z IBM i zlokalizowane w Langfang w Chinach, między Pekinem a Tianjin.
Las Vegas, Nevada: Switch SuperNAP
- 3,3 miliona stóp kwadratowych to całkowita powierzchnia nieruchomości.
- Switch jest również właścicielem SuperNAP z siedzibą w Vegas. W SuperNAP wykorzystuje się do 531 MW zielonej energii.
Hiperskalacja w przyszłości
Firmy działające na dużą skalę nadal dominują w środowisku, wpływając na projekt, lokalizację i ceny we wszystkich dziedzinach. Nawet jeśli poszczególne firmy mogą się zmienić, podstawowe trendy cyfryzacji, IoT i generowania danych będą nadal napędzać popyt na więcej centrów danych w przyszłości. A hiperskala będzie stanowić znaczną część z nich.