Hyperscale-Rechenzentren: Die Zukunft des Computing

Veröffentlicht: 2022-03-21

Noch nie war der Bedarf an Computerinfrastruktur und Rechenzentren so groß wie heute, da Milliarden von Menschen und zig Milliarden Geräte online sind. Was ermöglicht es Unternehmen, ihre Geschäftstätigkeit schneller als je zuvor auszubauen? Hyperscale-Rechenzentren.

Was ist die Definition eines Hyperscale-Rechenzentrums?

Herkömmliche Rechenzentren sind zentralisierte Gebäude, in denen wichtige Daten und Anwendungen für Unternehmen untergebracht sind. Sie speichern Daten und bieten Benutzern Zugriff auf Ressourcen, indem sie Computer- und Netzwerksysteme und -geräte verwenden.

Hyperscale-Rechenzentren sind wesentlich größer als normale Rechenzentren und können Millionen von Servern und virtuellen Maschinen aufnehmen. Sie bieten eine äußerst reaktionsschnelle, skalierbare und kostengünstige Infrastruktur, die Unternehmensprozesse vereinfacht und rationalisiert. Da die Anforderungen von Unternehmen an Datenspeicherung und -nutzung steigen, werden Hyperscale-Rechenzentren immer wichtiger.

Die Architektur

Hyperscale-Rechenzentren sind mindestens 10.000 Quadratfuß groß und hosten über 5.000 Server, die durch Ultrahochgeschwindigkeits-Glasfasernetzwerke verbunden sind. In Fort Worth, Texas, wird das fünfte Hyperscale-Rechenzentrum von Facebook aus fünf Gebäuden mit einer Gesamtfläche von mehr als 2,5 Millionen Quadratfuß bestehen.

Hyperscale-Rechenzentren verwenden eine neuartige Serverarchitektur mit größeren Racks, die mehr Komponenten aufnehmen können und für Flexibilität leicht austauschbar sind. So können beispielsweise Server über verschiedene Netzteile und Festplatten verfügen, und Hyperscale-Anbieter wie Facebook und Google können Supercomputer für ihre Anforderungen erstellen.

Verkehr

Skalierung wird in Hyperscale-Rechenzentren verwendet, um Datenverkehr anzunehmen, zu verarbeiten und weiterzuleiten. Beispiele hierfür sind die horizontale Skalierung zur Erweiterung der Maschinenanzahl und die vertikale Skalierung zur Leistungssteigerung bereits im Einsatz befindlicher Maschinen.

Automatisierung

Ein Hyperscale-Rechenzentrum ermöglicht es Unternehmen, alle Bereiche der Produktion durch durchgängige Automatisierung zu steuern. Dazu gehört die Verwaltung von stark frequentierten Websites und komplexen Workloads wie Verschlüsselung, Genomsequenzierung und dreidimensionalen Grafiken, die eine spezielle Verarbeitung erfordern.

Die Größe der Hyperscale

Die Fähigkeit eines Computersystems, sich an die steigende Nachfrage anzupassen, wird als „Hyperscale“ bezeichnet. Computer sind auf die Ressourcen eines einzelnen Knotens oder einer Gruppe von Knoten angewiesen. Die Erhöhung der Verarbeitungsleistung, des Arbeitsspeichers, der Netzwerkinfrastruktur oder der Speicherressourcen ist oft das Ergebnis der Skalierung einiger Aspekte unseres Computersystems.

Der Zweck der Skalierung besteht darin, weiterhin ein stabiles System aufzubauen, unabhängig davon, ob dieses System auf der Cloud, Big Data, verteiltem Speicher oder einer Mischung aus allen dreien basiert, wie es heutzutage immer häufiger vorkommt. „Hyper“ bedeutet natürlich „extrem“ oder „exzessiv“. Hyperscale ist nicht nur in der Lage zu skalieren, sondern massiv und schnell zu skalieren.

Wir denken häufig über eine „Hochskalierung“ nach, was eine vertikale Architekturstrategie ist, bei der es darum geht, vorhandene Geräte mit zusätzlicher Leistung auszustatten. „Scale-out“ oder die Verwendung einer horizontalen Strategie, wie z. B. die Erhöhung der Gesamtzahl der Geräte in Ihrer Computerumgebung, ist jedoch eine weitere Technik zur Steigerung der Kapazität.

Unternehmen befassen sich mit Hyperscaling in drei Bereichen: die physische Infrastruktur und die Verteilungssysteme, die Rechenzentren unterstützen, die Fähigkeit, Rechenaufgaben zu skalieren (Größenordnungen, sowohl in Bezug auf die Gesamtleistung als auch bei der Verbesserung des Status quo des Unternehmens) und die Finanzkraft und Einnahmequellen von Unternehmen, die solche Hyperscale-Systeme benötigen.

Die Wiedergeburt von Hyperscale

Da unsere Welt technologisch immer fortschrittlicher wird, hat die Nachfrage nach Speicher- und Computerdiensten zugenommen, ebenso wie der Bedarf an Einrichtungen, um diese Anforderungen zu erfüllen.

Eine umfangreiche IT-Infrastruktur wurde durch zwei Entwicklungen erforderlich. Als Cloud-Computing-Plattformen in den späten 2000er Jahren zum ersten Mal populär wurden, dienten sie als Bedarfsaggregatoren für Unternehmen, die ihre lokalen IT-Workloads in die Cloud migrieren wollten. Benutzer können Ressourcen bereitstellen und mithilfe von Cloud-Plattformen schnell wachsen, was aus der Ferne und fast sofort erfolgen kann. Diese Dienstleister können dann die zukünftige Nachfrage abschätzen und „in großen Mengen einkaufen“, um sie zu befriedigen.

Darüber hinaus treibt das schnelle Aufkommen von SaaS, Streaming und Social Media den Sektor voran. Um die Anforderungen ihrer Verbraucher zu erfüllen, benötigen alle drei dieser Arten von Unternehmen große Mengen an Speicher, Rechenleistung und Bandbreite.

Enterprise vs. Hyperscale-Rechenzentren

Ein Rechenzentrum oder jede Struktur, die Computersysteme und zugehörige Komponenten wie Speichersysteme und Telekommunikation beherbergt, ist das Herzstück der meisten Unternehmen. Diese Einstellungen haben auch Redundanzen im Falle eines Strom-, Umgebungsvariablen- oder Sicherheitssystemausfalls. Die Größe Ihres Unternehmens und die Größe Ihrer Rechenleistung bestimmen die Größe und Anzahl der erforderlichen Rechenzentren. Es ist jedoch normal, dass ein einzelnes Rechenzentrum für ein großes Unternehmen die gleiche Menge an Strom verbraucht wie eine Kleinstadt. Es ist auch sehr ungewöhnlich, dass ein Unternehmen nur ein oder zwei dieser Rechenzentren benötigt.

Es erfordert viel Aufwand, um den reibungslosen Betrieb eines Unternehmensrechenzentrums aufrechtzuerhalten. Sie warten die Umgebung des Rechenzentrums kontinuierlich, um ein einheitliches Maschinenverhalten zu gewährleisten, legen einen Patchplan fest, der konsistente Patches bei gleichzeitiger Minimierung der Ausfallzeit ermöglicht, und versuchen, jede Art von unvermeidbaren Ausfällen zu beheben.

Vergleichen und kontrastieren Sie ein kleines Unternehmen mit einem Google oder IBM. Es gibt zwar keine einzige, allumfassende Definition für HDCs, aber wir wissen, dass es sich um wesentlich größere Einrichtungen handelt als herkömmliche Rechenzentren für Unternehmen. Wenn ein Rechenzentrum über mehr als 5.000 Server verfügt und mehr als 10.000 Quadratfuß umfasst, gilt es laut dem Marktforschungsunternehmen International Data Corporation als „Hyperscale“. Das sind natürlich die Orte, die nur die Kriterien für einen HDC erfüllen. Hunderttausende, wenn nicht Millionen von Servern sind in einigen Hyperscale-Rechenzentren untergebracht.

Aber laut IDC gibt es noch mehr, was diese Art von Einrichtungen auszeichnet. Greenfield-Anwendungen – Projekte ohne Einschränkungen – erfordern eine Architektur, die ein homogenes Scale-out von Hyperscale-Rechenzentren ermöglicht. Hinzu kommt eine massive Infrastruktur, die zunehmend disaggregiert, dichter und energieeffizienter wird.

Hyperscale-Unternehmen, die sich auf diese Rechenzentren verlassen, haben ebenfalls Hyperscale-Anforderungen. Während sich die meisten kommerziellen Unternehmen auf Standardgeräte von Technologieanbietern verlassen können, müssen Hyperscale-Unternehmen praktisch jede Komponente ihrer Computerumgebung anpassen. Das Hinzufügen spezialisierter Fähigkeiten in riesigen Größen, das Anpassen jedes Elements der Computererfahrung und das Herumbasteln an jeder Einstellung. Niemand kann es besser machen, als das Unternehmen es in dieser Größenordnung für sich selbst tun kann. Die Kosten dieser Forderungen bestimmen, wer berechtigt ist, dem Hyperscale-Club beizutreten.

Natürlich kann die Preisgestaltung für Unternehmen, die Hyperscale-Rechenzentren betreiben, eine Eintrittsbarriere darstellen, aber das ist nicht das Problem. Das ist Automatisierung.

Unternehmen, die Hyperrechenzentren bauen, konzentrieren sich stattdessen auf die Automatisierung oder „Selbstheilung“, ein Wort, das eine Umgebung impliziert, in der unvermeidbare Ausfälle und Verzögerungen auftreten, aber das System ist so gut kontrolliert und automatisiert, dass es sich selbst an die richtigen Stellen anpasst . Diese selbstheilende Automatisierung ist entscheidend, da sie eine hohe Dateneffizienz fördert.

Welche Arten von Menschen verwenden Hyperscale?

Hyperscale-Anbieter besitzen und betreiben derzeit dreimal so viele große Rechenzentren wie 2013. Es ist nicht schwer zu erraten, welche Firmen ganz oben auf dieser Liste stehen würden.

Amazon, Microsoft, Google und IBM verfügen alle über Hyperscale-Rechenzentren in allen wichtigen Regionen der Welt, dicht gefolgt von Facebook, Apple, Oracle und Alibaba, dem chinesischen Cloud-Giganten.

Zu jeder Zeit können diese A-Lister über 70 Megawatt und Hunderttausende von Quadratfuß abreißen.

Unternehmen mit geringerem Strombedarf, die aber dennoch die Möglichkeit wünschen, einige Megawatt am Stück zu entwickeln, sind als nächstes an der Reihe. Zu den Mitgliedern gehören Salesforce, SAP, Dropbox, Twitter, Uber und Lyft.

Das Innere eines Hyperscale-Rechenzentrums

Quincy, eine kleine Stadt im ländlichen Kern des Bundesstaates Washington, beherbergt viele Hyperscale-Rechenzentren für Unternehmen wie Microsoft, Yahoo und Dell. Die Region spricht diese Unternehmen aus den gleichen Gründen an wie ihre Landwirte: relativ kühles Wetter, niedrige Grundstückspreise und viel Freifläche. Wenn man bedenkt, wie riesig diese sind, sind die Weiten bemerkenswert. Quincy HDC von Microsoft, eines von mehr als 45 weltweit, verfügt über 24.000 Meilen Netzwerkkabel. Für einen menschlicheren Vergleich ist das nur geringfügig weniger als der Durchmesser der Erde oder sechs Amazonas-Flüsse.

Ein weiteres Azure-unterstützendes Microsoft HDC befindet sich in Singapur, das nicht gerade eine Großstadt ist. In diesem Hyperscale-Rechenzentrum ist genug Beton, um einen 215 Meilen langen Fußweg zu bauen, der London und Paris verbindet. Ein Hyperscale-Rechenzentrum wird durch seine Größe und Komplexität definiert. Da ein Großteil der Technologie automatisiert ist, beschäftigen viele HDCs weniger Technikspezialisten als viele Unternehmensrechenzentren, die auf eine große Vollzeitbeschäftigung in einer Vielzahl von Fachgebieten angewiesen sind. Da die Daten in diesen Zentren das Produkt sind, ist es wahrscheinlich, dass Hyperscale-Unternehmen mehr Sicherheitspersonal als technisches Personal in HDCs beschäftigen.

Ist Hyperscale besser als Colocation?

Wie bereits erwähnt, verwenden die großen Benutzer von Rechenzentren alle eine Build-and-Lease-Methode. Viele Variablen beeinflussen dies, darunter Zeit, Kosten, zukünftige Anforderungen und andere. Diese Colocation-Anbieter sind in ihrem Streben nach Hyperscale-Firmen erfinderischer geworden und reichen von der Rolle als Entwicklungsarm über das Design nach ihren Anforderungen bis hin zum Angebot einer angetriebenen Hülle und der Möglichkeit, dass der Benutzer die Innenausstattung liefert.

Colocation-Dienste werden im Allgemeinen von kleineren, aber immer noch hyperskalierten Unternehmen genutzt. Diese Unternehmen verhalten sich eher wie Standard-Colocation-Kunden, obwohl sie in der Regel langfristige Expansionspläne haben.

5 Hyperscale-Rechenzentren mit der größten Kapazität

Ab 2021 wird es über 600 Hyperscale-Rechenzentren geben. Wir vergleichen die fünf größten Hyperscale-Rechenzentren und die Regionen, die sie bedienen, mit der traditionellen Definition eines Hyperscale-Rechenzentrums, das aus 5.000 Servern auf 10.000 Quadratfuß besteht.

Das Informationszentrum der Inneren Mongolei ist ein Ort, an dem Menschen Informationen über ihr eigenes Land erhalten können

  • 10,7 Millionen Quadratmeter beträgt die Gesamtfläche des Gebäudes.
  • Das Inner Mongolian Information Hub, eines von sechs Rechenzentren in Hohhot im Besitz von China Telecom, ist das größte.

Das Hohhot-Rechenzentrum befindet sich in Hohhot, China.

  • 7,7 Millionen Quadratmeter insgesamt
  • Das zweitgrößte Rechenzentrum ist das Hohhot Data Center von China Mobile, das sich ebenfalls im Information Hub von Hohhot befindet.

Der Campus der Zitadelle

  • Insgesamt 7,2 Millionen Quadratmeter
  • Der Citadel Campus, der dem multinationalen Technologiekonzern Switch gehört und im Norden Nevadas liegt, ist das größte Rechenzentrum der Welt. Für den Betrieb werden bis zu 650 Megawatt erneuerbare Energie (MW) eingesetzt. Silicon Valley hat eine Latenz von 4,5 Millisekunden (ms), Silicon Beach hat eine Latenz von 9 ms und Las Vegas hat eine Verzögerung von 7 ms.

Langfang, Range International Information Hub mit Sitz in China

  • 6,6 Millionen Quadratfuß beträgt die Gesamtfläche.
  • Das Range International Information Hub ist ein Superrechenzentrum der vierten Generation, das in Zusammenarbeit mit IBM gebaut wurde und sich in Langfang, China, zwischen Peking und Tianjin befindet.

Las Vegas, Nevada: SuperNAP wechseln

  • 3,3 Millionen Quadratfuß beträgt die Gesamtfläche des Grundstücks.
  • Switch besitzt auch SuperNAP, das seinen Sitz in Vegas hat. Im SuperNAP werden bis zu 531 MW Ökostrom eingesetzt.

Hyperscale in der Zukunft

Hyperscale-Firmen dominieren weiterhin das Umfeld und beeinflussen das Design, den Standort und die Preisgestaltung auf ganzer Linie. Auch wenn sich bestimmte Unternehmen ändern können, werden die zugrunde liegenden Trends der Digitalisierung, des IoT und der Datengenerierung auch in Zukunft die Nachfrage nach mehr Rechenzentren anheizen. Und Hyperscale wird einen erheblichen Teil davon ausmachen.