Storage, Edge Computing, Monitoring 31.05.2019, 07:21 Uhr

Tech-Trends im Data Center

Neue Use Cases und technische Entwicklungen verändern die Anforderungen an die Infrastruktur im Data Center. Vertreter von Fujitsu, Reichle und De-Massari, Rittal, Schneider Electric und Vertiv erläutern, welche Trends den Bau von Rechenzentren bestimmen.
(Quelle: Fotolia/vladimircaribb)
Höhere Leistungsdichten, Individualisierung beim Data-Center-Bau, Hybride Cloud und neue Use Cases wie Edge Computing oder künstliche Intelligenz verändern die Anforderungen an Architektur, Aufbau und Betrieb von Rechenzentren und Colocation. Experten verschiedener Infrastruktur-Anbieter zeigen die Entwicklungen im Data Center auf und welche Folgen diese für die Infrastruktur haben.

Donal Greene, Fujitsu Schweiz: «Der Aufwand für Administratoren wird grösser»

Donal Greene, Senior Business Development Manager, Fujitsu Schweiz
Quelle: Fujitsu Schweiz
Computerworld: Wie haben sich die Anforderungen auf Seite der Kunden im Data-Center-Umfeld in den letzten Jahren verändert?
Donal Greene, Senior Business Development Manager Fujitsu Schweiz: Leistung, Zuverlässigkeit, Sicherheit, Umweltfreundlichkeit – das sind die wesentlichen Parameter, die für die Kundinnen und Kunden zählen. Entscheidend ist auch das Thema Bedienerfreundlichkeit. Denn der Aufwand für Administratoren wird grösser, etwa aufgrund neuer Technologien, Anwendungen und unterschiedlichen Anforderungen an die Nutzung von Daten. Von Herstellern von Infrastruktur und Betreibern von Rechenzentren wird erwartet, dass sie einfache Werkzeuge der Bedienung zu Verfügung stellen, um alles zu verwalten – also GUIs, Tools und Prozesse. Das wird für die Verwaltung der gesamten Infrastruktur erwartet, egal ob es dabei um den Standort, das Gebäude, den Raum und Platz-Management geht oder um den konkreten Betrieb also um die Wartung, Vernetzung, Stromversorgung oder Kühlung.
CW: Welche aktuellen Infrastruktur-Trends bestimmen die Entwicklung beim Bau und Betrieb von Rechenzentren und Colocation?
Greene: Derzeitige Treiber von Infrastruktur-Entwicklungen in Rechenzentren sind beispielsweise Anwendungen für die Industrie 4.0 respektive für das Internet of Things – vor allem im Zusammenhang mit dem neuen Mobile-Standard 5G – und «smarte Lösungen» aller Art. Das Volumen an Daten steigt drastisch und es kommt darauf an, diese einfach, sinnvoll und schnell zu speichern und wieder zur Verfügung zu stellen.
CW: Welche Konsequenzen folgen daraus?
Greene: Daraus ergeben sich mehrere Entwicklungen: Es müssen schnelle und trotzdem robuste Speichermedien zum Einsatz kommen. Die Dichte an Daten auf Speichermedien und die Rechenleistung wird zudem weiter steigen. Auch kommt es auf den richtigen Mix an, um die Kosten für die Datenhaltung im Rechenzentrum im Zaum zu halten. Dafür müssen Speichertechnologien sinnvoll nach Art der Anwendung ausgesucht werden. «Tote Daten», die niemand mehr braucht, können auch heute noch auf Bänder geschrieben werden. Ein weiterer Trend ist  «Crosspoint» (3D XPoint). Diese von Intel und Micron entwickelte neuartige Speichertechnologie ist zwar aktuell noch langsamer als herkömmlicher Arbeitsspeicher, dafür aber günstiger und bietet verschiedene Vorteile gegenüber NAND-Flash. Zudem lassen entsprechende Module direkt im RAM-Slot betreiben.
CW: Mit welchen Massnahmen und technischen Innovationen reagiert Ihr Unternehmen auf die veränderten Kundenanforderungen?
Greene: Hier nur ein Beispiel: Unser Storage-System Eternus DX8900 S4 ist für Betreiber von Rechenzentren gedacht und für Unternehmen, die ihre Storage-Architektur konsolidieren und auf All-Flash umstellen wollen. Für die Lösung interessieren sich Kunden, die grosse Datenmengen verarbeiten und schnelle Workloads benötigen. Die Eternus DX8900 S4 führt den Storage-Benchmark (SPC-1) an: Sie schafft 10 Millionen IOPS und liegt damit 30 Prozent vor dem besten Konkurrenz-Produkt.
CW: Welche konkreten Vorteile ergeben sich daraus für den IT-Betrieb?
Greene: Da Unternehmen immer mehr Daten speichern und Rechenzentren konsolidiert und virtualisiert werden, steigt die Abhängigkeit von der Systemleistung beziehungsweise von den Datenmengen, die ein Speichersystem lesen und schreiben kann. Die bei der Eternus DX8900 S4 über Non-Volatile Memory Express (NVMe) schnell übertragenen Daten sorgen dafür, dass Backups rasch abgeschlossen und wichtige Informationen, wie zum Beispiel Datenbanken, zeitnah aus dem Backup wiederhergestellt werden können. Das Speichersystem reduziert die Komplexität des Rechenzentrums, indem sie Daten für geschäftskritischen Anwendungen konsolidiert. Denn mit einer Flash-Kapazität von bis zu 140 PB ist es nicht mehr notwendig, den Speicher abhängig von der Wichtigkeit der Workloads zu staffeln. Die Lösung bringt Kapazität, Datenzugriffsgeschwindigkeit und Kosten in Einklang.
CW: Wie wird das Rechenzentrum der Zukunft aussehen?
Greene: Das Data Center der Zukunft wird umweltfreundlich, verhältnismässig einfach im Betrieb, sicher und schnell sein. Auch muss dessen Öko-Bilanz stimmen. Die wachsende Rechenleistung pro Rack erfordert spezielle Systeme für Kühlung und Stromversorgung. Durch die höhere «Packungsdichte» benötigen Rechenzentren etwa 30 Prozent weniger Energie für den Betrieb der Speicher, aber die Abwärme pro Rack steigt deutlich. Diese Energie muss sinnvoll genutzt werden. Schön heute wird die Abwärme von Rechenzentren für die Beheizung anliegender Bürokomplexe genutzt und sogar als «Fernwärme» verkauft.

Thomas Wellinger, Reichle & De-Massari: «Edge Data Center entlasten die Core-Netze, die Cloud und die Budgets»

Thomas Wellinger, Market Manager Data Center, R&M
Quelle: Reichle und De-Massari
Computerworld: Wie haben sich die Kundenanforderungen in den letzten Jahren verändert?
Thomas Wellinger, Market Manager Data Center, R&M: Mit der digitalen Transformation durchdringt die IT dank neuer Möglichkeiten immer weitere Bereiche der Wirtschaft. Augmented Reality für Games aber auch für industrielle Anwendungen etwa in der Bauwirtschaft erfordert schon heute hohe Bandbreiten, erzeugt grosse Datenmengen und benötigt kurze Reaktionszeiten. Noch drastischer zeigt sich dies in der Finanzwirtschaft, wo eine geringe Latenz über Gewinne entscheiden kann. Künftige Entwicklungen wie das Internet of Things, das autonome Fahren oder die Telemedizin schrauben ebenfalls an der Leistungsschraube. Hierfür benötigen Unternehmen neue Lösungsansätze im Cloud Computing. Wir werden deshalb einen Paradigmenwechsel erleben, der sich auch auf die technische Infrastruktur von Rechenzentren auswirken wird.
CW: Welche Infrastrukturtrends erwarten Sie?
Wellinger: Zentrale Mega-Data-Center in der Cloud sind kein Allheilmittel für die Bedürfnisse der digitalen Welt. Distanzen, Datenvolumen, Lastverteilung und Buffering, Übertragungskapazität und Übertragungskosten erfordern mehr und mehr dezentrale Lösungen. Ein grosser Trend ist daher das Edge Computing. Edge Data Center entlasten die Core-Netze, die Cloud und die Budgets. Die Zukunft beschert Providern und Nutzern noch dramatischere Gründe. Beispiel autonomes Autofahren: Es gelingt nur, wenn Massen von Informationen mit minimaler Latenz zwischen Fahrzeugen, Navigationssystemen, Mobilfunknetzen, Radar- und Überwachungssystemen, Ampeln und Verkehrsrechnern bewegt werden. Das erfordert neben 5G-Mobilfunk ein Glasfaser-Netzwerk entlang der Strasse. Alle 15 Kilometer müssten Mikrorechenzentren stehen. Sie müssten die Interaktion mit ultrakurzer Latenz gewährleisten und die wichtigsten Daten vor Ort verarbeiten. Der Datenaustausch über mehrere hundert Kilometer entfernte Cloud Data Center wäre mit den typischen 1 bis 2 Millisekunden Latenz zu lahm und zu riskant.
CW: Mit welchen Massnahmen und technischen Innovationen reagiert Ihr Unternehmen auf die veränderten Kundenanforderungen?
Wellinger: Etwa mit EdgeGo, einem schlüsselfertigen autonomen Edge Data Center im Container, was den Bau eines Serverraums spart. Das RZ sitzt in einem schallgedämmten Gehäuse (99 % IT Noise Reduction) auf der Standfläche eines Racks. Es enthält auf 42 Höheneinheiten neben Verkabelung und IT die Kühlung, Stromversorgung, Überwachungskamera und automatisches Infrastrukturmanagement für das Remote Monitoring. Mit R&M InteliPhy haben wir ein multifunktionales Automatisches Infrastruktur-Managementsystem entwickelt. Es hilft Netzwerkverantwortlichen, Infrastrukturen in jeder Grösse zentral, digital und in Echtzeit zu überwachen. Und schliesslich geht es auch um die manuelle Arbeit beim Rangieren. Installateure und Techniker sollten die Anlagen intuitiv bedienen können. Bei einer hochverdichteten Verkabelung fällt es schwer, die Stecker zu greifen. Push-Pull-Mechanik wie bei unserer Quick-Release-Steckerfamilie vereinfacht die Arbeit.
CW: Wie wird das Rechenzentrum der Zukunft aussehen?
Wellinger: Alles wird sich weiter verdichten und zu Hyperconnectivity sowie zu flacheren Hierarchien tendieren – innerhalb der Anlagen und geografisch. Beispiel Edge Data Center: Sie stehen innerhalb der Stadt oder Region, die sie bedienen. Je mehr Bedarf an Rechenleistung, desto dichter die Standorte. Edge-Cluster können Clouds bilden. Damit lassen sich Performance, Kapazität, Geo-Redundanz und Sicherheit regionaler Netze steigern. Insbesondere bieten sich Netzknotenpunkte wie Central Offices, Hubs, POPs, Kopfstationen oder Mobilfunk-Basisstationen an. Edge Data Center sollten zu Peering-/Exchange-Points werden, durch die der grösste Teil des regionalen Internet-Traffics läuft. Flache, dezentral ausgerichtete Hierarchien kommen ins Spiel. Edge Data Center brauchen redundante und synchrone fiberoptische Hyperconnectivity in jede Richtung: zur Cloud, zum Mobilfunk, zu Nachbar-Edges und zu den Nutzern. Weitere mögliche Edge-Standorte: Windkraftwerke, Solarparks, Bahnhöfe, Autobahnraststätten, Industriereviere, Lagerhallen, ehemalige Enterprise Data Center etc. Edge Data Center lassen sich zudem multifunktional nutzen – für Private und Hybrid Cloud, als Ressource für externe Nutzer oder sogar als Gebäudeheizung.
CW: Wie beeinflussen Edge Data Center das Management von Rechenzentren?
Wellinger: Es erscheint unmöglich, eine grössere Zahl entfernter Edge Data Center auf traditionelle Weise zu administrieren. Edge-Provider werden Manpower benötigen und Fachkräfte ausbilden müssen. Doch nur kompromissloses Remote Monitoring und vollautomatisiertes Infrastruktur-Management können helfen, den unterbrechungsfreien Betrieb zu gewährleisten. Fortschrittliche Lösungen werden mehr beherrschen als die akkurate Dokumentation der Ports und Kabel oder die Erkennung von Fehlern und Manipulationen in Echtzeit. Sie müssen für das Management von Zutritt, Arbeitsanweisungen, MAC-Planungen, Software, Ressourcen, Assets und Service Levels einsetzbar sein. Gefahrenabwehr, Predictive Maintenance, Kostenkontrolle zählen ebenfalls zu den wünschenswerten Features.

Pascal Warnebold, Rittal: «Energieeffiziente Lösungen werden zum Schlüsselkriterium bei Investitionsentscheiden»

Pascal Warnebold, Temleiter Marketing, Rittal
Quelle: Rittal
Computerworld: Welche aktuellen Infrastruktur-Trends bestimmen die Entwicklung beim Bau und Betrieb von Rechenzentren und Colocation?
Pascal Warnebold, Temleiter Marketing, Rittal: Im Fokus steht die Steigerung der Energieeffizienz in Rechenzentren sowie die Verwendung natürlicher Ressourcen – die in der Schweiz glücklicherweise ausreichend verfügbar sind – zur Stromproduktion und zur Kühlung. Ein weiterer Trend ist die zunehmende Unterstützung von Überwachungsfunktionen durch künstliche Intelligenz, um grosse komplexe IT-Systeme ausfallsicherer betreiben zu können als bisher.
CW: Wie haben sich die Anforderungen auf Seite der Kunden im Data-Center-Umfeld in den letzten Jahren verändert?
Warnebold: Die Kunden stellen grundsätzlich hohe Anforderungen an ihre Anbieter was Leistung, Verfügbarkeit und Servicequalität anbelangt. Energieeffiziente Lösungen werden zudem zum Schlüsselkriterium bei Investitionsentscheidungen. Ausserdem wird bei der Planung eines Data Centers eine konsequente Berücksichtigung der ISO- und EN-Normen gewünscht.
CW: Mit welchen Massnahmen und technischen Innovationen reagiert Ihr Unternehmen auf die veränderten Kundenanforderungen?
Warnebold: Als innovatives Unternehmen bietet Rittal diverse zukunftsorientierte Technologien, um den veränderten Kundenwünschen gerecht zu werden. Beispielsweise offerieren wir mit Edge-Infrastrukturen Lösungen für eine Vielzahl von Industrien: Vorkonfigurierte und modular aufgebaute Systeme helfen Unternehmen dabei, neue IT-Infrastrukturen schnell, sicher und wirtschaftlich an beinahe beliebigen Standorten zu realisieren. Ein weiterer Ansatz, mit dem Rittal auf die Veränderungen im Markt für Rechenzentren reagiert, sind passende Klimatisierungssysteme. Mit dem Liquid Cooling Package (LCP) DX/FC Hybrid etwa. Dieses verfügt sowohl über einen Kältemittelkreislauf (DX = Direct Expansion) als auch über einen separaten Wasserkreislauf (CW = Cold Water). Damit kann in Abhängigkeit der aktuell vorherrschenden Aussentemperatur sehr effizient die jeweils benötigte Kühlleistung erzeugt werden.
CW: Wie wird das Rechenzentrum der Zukunft aussehen?
Warnebold: Es wird eine verstärkte Standardisierung und einen dezentralen Ausbau der IT-Infrastruktur in Rechenzentren geben, um die digitale Transformation in allen Industriezweigen zu unterstützen.

Vincent Barro, Schneider Electric: «In diesem Geschäft braucht man umgehend Einnahmen, um schnell wachsen zu können»

Vincent Barro, Vice-President Switzerland & End-Users DACH, Schneider Electric IT Division
Quelle: Schneider Electric IT Division
Computerworld: Welche Infrastruktur-Trends bestimmen aus Ihrer Sicht die Entwicklung beim Bau und Betrieb von Rechenzentren und Colocation?
Vincent Barro, Vice-President Switzerland & End-Users DACH, Schneider Electric IT Division: Mit wachsender Grösse einzelner RZ-Standorte wird der Energieverbrauch zum entscheidenden Wettbewerbsfaktor. Hier bietet Cooling sicherlich das grösste Einsparpotenzial. Die Herausforderungen für einen Betreiber in Zürich sind jedoch nicht die gleichen wie für einen Betreiber in Frankfurt oder Wien. Präzisionskühllösungen müssen deshalb sehr spezifisch geplant werden und die Anforderungen eines Standorts genau berücksichtigen. Sie können beispielsweise kein herkömmliches Gebäudekühlsystem zur Unterstützung Ihrer Data-Center-Infrastruktur verwenden. Prinzipiell führt das zwar zu einer funktionierenden Lösung, sie arbeitet aber nicht so effizient und zuverlässig, wie es eine moderne RZ-Infrastruktur heute verlangt. Wenn wir über Effizienz reden, spielen natürlich auch das Energiemanagement und Lösungen für das Data Center Infrastructure Management (DCIM) eine immer stärkere Rolle. Hier geht der Trend eindeutig zu cloudbasierten Lösungen.
CW: Wie haben sich die Kundenanforderungen in den letzten Jahren verändert?
Barro: Anbieter möchten sich heute sehr schnell im Data-Center-Markt etablieren und ohne Verzögerungen mit dem Endkunden in Verbindung treten. In diesem Geschäft braucht man umgehend Einnahmen, um schnell wachsen zu können. Heute haben Colocation-Anbieter deshalb nicht mehr zwölf Monate oder länger Zeit, um Entscheidungen über mögliche Kapazitätserweiterungen zu treffen. In der Regel liegt heute ein Zeitraum von etwa fünf Monaten zwischen dem ersten Kontakt und der Bereitstellung der jeweiligen Rechenzentrumslösung. Der Markt in der DACH-Region ist inzwischen so dynamisch, dass für Colocation-Anbieter und geschäftliche Endkunden jeder RZ-Standort entscheidend ist.
CW: Mit welchen Massnahmen und technischen Innovationen reagiert Ihr Unternehmen auf die veränderten Kundenanforderungen?
Barro: Für uns als Hersteller bedeuten kürzere Bereitstellungzeiträume, dass wir bei Projekten eine präzise Abstimmung von Risikomanagement und Supply-Chain vornehmen müssen, dabei aber immer eine solide Marktausrichtung auf OPEX und CAPEX gewährleisten. Natürlich beschleunigen sich damit auch die Innovationszyklen. Gerade im Hinblick auf dezentrale IT-Infrastrukturen und Edge-Computing hat Schneider Electric deshalb in den letzten Monaten einige wichtige Neuheiten vorgestellt. Darunter auch das cloudbasierte DCIM-System EcoStruxure IT, das KI-gestützte Prozesse nutzt, um Betreiber von verteilten Edge-Standorten bei Wartungs- und Überwachungsaufgaben zu unterstützen.  Durch die Auswertung von Millionen anonymisierter Verlaufsdaten lassen sich mit EcoStruxure IT Expert bisher verborgene Energieeinsparpotenziale erschliessen und mögliche Fehlerkonstellationen frühzeitig identifizieren.
CW: Wie wird das Rechenzentrum der Zukunft aussehen?
Barro: Das Rechenzentrum der Zukunft wird im Grundsatz effizienter und zuverlässiger arbeiten als heute, dabei aber gleichzeitig immer näher an den Endnutzer heranrücken. Daraus resultieren zusätzliche Ebenen innerhalb eines komplexen Data-Center-Verbunds, die bisherige Core-Rechenzentren sinnvoll ergänzen. Moderne Schlüsseltechnologien wie KI, Robotik, IoT und 5G stellen heute schon hohe Anforderungen an die zu verarbeitenden Datenmengen.
CW: Inwieweit verändert sich dadurch die Planung von Rechenzentren?
Barro: Bandbreitenbeschränkungen und anwendungsspezifische Latenzen erfordern eine hybride Rechenzentrumsarchitektur. Diese muss neben zentralen Cloud-Rechenzentren auch zuverlässig Rechenleistung auf regionaler und lokaler Ebene im Edge-Bereich bereitstellen. Die wachsende Anzahl von Standorten im Edge-Cloud-Verbund optimiert dabei zwar die Nutzererfahrung, stellt jedoch völlig neue Anforderungen an die Bereiche Operations und Management. Mit EcoStruxure IT stellt Schneider Electric deshalb Colocation-Anbietern und Managed Service Providern eine skalierbare Data-Center-Management-Lösung zur Verfügung, die schon jetzt für die Zukunft der Data-Center-Bereitstellung gerüstet ist.

Samir Delic, Vertiv: «Eine kleine Data-Center-Einheit könnte in Zukunft Wohn- oder Gewerbeblöcke mit Wärme versorgen»

Computerworld: Welche aktuellen Infrastruktur-Trends bestimmen die Entwicklung beim Bau und Betrieb von Rechenzentren und Colocation?
Samir Delia, Country Manager Schweiz, Vertiv
Quelle: Vertiv
Samir Delic, Country Manager Schweiz, Vertiv: Im Zuge der zwei Trends, Internet der Dinge (IoT) und der kommenden Umstellung auf 5G, wird der Netzwerkrand immer wichtiger. Hier meinen wir ganz konkret den Trend Edge Computing. Damit alles perfekt vorbereitet ist, müssen neue intelligente und autarke beziehungsweie automatisierte und dezentrale Infrastruktur-Lösungen her: Systeme mit Machine-Learning-Fähigkeiten und Cloud-basierte Analytics-Lösungen. Diese vereinfachen und verbessern das IT-Ökosystem am Netzwerkrand, während sie diesen gleichzeitig absichern und effizienter gestalten. Ein weitere Entwicklung ist die zunehmende Standardisierung und Normierung von Rechenzentren. Das wird ebenfalls grossen Einfluss darauf nehmen, wie Data Center gebaut und funktionieren werden. So treffen wir immer häufiger, auf einheitliche Strukturen bei der Architektur und Ausstattung von RZ-Gebäuden oder -Modulen. Es gibt zwar regionale Unterschiede, aber im Grossen und Ganzen werden sich diese immer ähnlicher. Das liegt hauptsächlich daran, dass Systeme einfach im Bau und der Wartung sowie kostengünstig gehalten werden sollen.
CW: Wie sieht es mit der Energieeffizienz aus?
Delic: Auch der Klimawandel und die Energiewende sind ein Trend, den wir nicht aussen vor-lassen dürfen. Immer mehr Rechenzentren müssen immer effizienter werden, damit wir hier langfristig nicht in ein Dilemma bei der Stromversorgung kommen.  Das Potenzial, das in Rechenzentrumstechnologie steckt, muss dafür voll ausgeschöpft werden und dafür braucht es Veränderungen. Wir denken hier vor allem an statische USV-Systeme, die mit Lithium-Ionen-Batterien bestückt gut als Energiespeicher genutzt werden können, und das Konzept der Abwärmenutzung. Diese werden Rechenzentren nachhaltig verändern.
CW: Wie haben sich die Kundenanforderungen in den letzten Jahren verändert?
Delic: Hier haben wir zwei grundsätzliche Veränderungen festgestellt. Die Packungsdichten, die wir früher nur von wissenschaftlichen Rechenzentren kannten, werden mittlerweile auch von Rechenzentren im unternehmerischen Umfeld benötigt. Der Grund ist simpel: Durch die immer höheren Netzanforderungen und grösseren Datenmengen wird immer mehr Leistung benötigt. Deswegen ist eine Zunahme der steigenden Lasten pro Rack eine logische Folge. Die andere wesentliche Veränderung ist, dass Kunden sich vor allem standardisierte Lösungen mit kurzen Planungs- und Ausführungszeiten wünschen, die gut skalierbar sind. Im Zeitalter der Digitalisierung mit stark zunehmenden Datenmengen, die verarbeitet werden müssen, sowie dem Edge Computing-Trend und dem gleichzeitig einhergehenden IT-Fachkräftemangel ein absolut nachvollziehbarer Wunsch. Diesem kommen wir beispielsweise mit der modularen Bauweise von Rechenzentren entgegen. Hier liefern wir ab Werk vorgefertigte Module mit der kompletten Infrastruktur wie Verkabelung, Kühlung, Racks etc., die dann einfach aufgestellt und beliebig erweitert werden können.
CW: Mit welchen Massnahmen und technischen Innovationen reagiert Ihr Unternehmen auf die veränderten Kundenanforderungen?
Delic: Wir erforschen laufend den aktuellen und künftigen Markt und entwickeln unser Produkt-Portfolio dahingehend immer weiter. Die Forschungsergebnisse fliessen direkt in unsere Technologien ein. Damit sind sie auf die unterschiedlichsten aktuellen Anforderungen, die der Markt stellt, vorbereitet. Erst kürzlich haben wir einige Neuerungen vorgestellt, die auf zwei grundsätzliche Veränderungen eingehen. Einerseits möchten wir auf die speziellen Anforderungen von Edge Computing eingehen. Andererseits wollen wir aber Resellern helfen, sich für die fortwährende Digitalisierung noch besser zu wappnen.
CW: Wie zeigt sich das in ihrem Produkt-Portfolio?
Delic: So ist beispielsweise das Vertiv VR Rack eine stabile und flexible Rack-Lösung, die eine schnelle Installation und Wartung ermöglicht. Damit soll die Arbeit an kritischen Geräten vereinfacht werden. Unsere Geist rPDU ist ein anderes Beispiel: Sie wurde speziell für den Ausseneinsatz entwickelt und ist damit gerade für das Edge Computing interessant. Ausserdem verfügen die switched Modelle über patentierte U-Lock-Buchsen, die jedes Kabel verriegeln. So wird ein unbeabsichtigtes Trennen verhindert. Aber auch USV-Anlagen, wie die Liebert GXT5, wurden speziell für den Einsatz am Netzwerkrand entwickelt und angepasst. Der Clou: Die individuell steuerbaren, integrierten Steckdosen erhöhen die Sicherheit – und sie kann auch remote gesteuert werden.
CW: Wie wird das Rechenzentrum der Zukunft aussehen?
Delic: Zusätzlich zu den grossen Rechenzentren von Colocation-Anbietern und Grosskonzernen werden kleine und modulare Rechenzentren immer populärer. So ist beispielsweise das Mikro-Rechenzentrum (oder auch Datacenter-in-a-Box) stark im Kommen. Diese kleinen Einrichtungen können vor allem am Netzwerkrand eingesetzt werden. In vielen Fällen fehlt hier jedoch zurzeit noch ein wirksamer Hochverfügbarkeitsschutz. Wir arbeiten aber gerade dafür an einer Lösung. Vielversprechend sind dafür besondere Rack PDU-Einheiten. Ein anderer Vorteil von Mikro-Rechenzentren ist die Möglichkeit der flächendeckenden Verbreitung und der einfachen Redundanz. So kann beispielsweise bei einem Ausfall einer Einheit der Verbund der anderen Einheiten diesen Ausfall gut kompensieren. Wenn ein grosses Rechenzentrum einen Blackout hat, ist der Schaden hingegen viel grösser.
CW: Sie hatten die Energieeffizienz angesprochen. Welche Möglichkeiten bieten Mikrorechenzentren in diesem Bereich?
Delic: Ein weiterer Vorteil der modularen Einheiten ist die dezentrale Abwärmenutzung. Rechenzentren geben ja viel Wärme ab, weil die Server eine kühle Umgebung benötigen und sehr schnell erhitzen. Diese Wärme wird aber bisher nur wenig genutzt. Doch mit der Abwärme der weltweiten Rechenzentren – derzeit 500 TWh pro Jahr – liesse sich beispielsweise nahezu der komplette Heizwärmebedarf aller Privatwohnungen in Deutschland decken. Und so stellen wir uns die Zukunft vor: Eine kleine Rechenzentrumseinheit, die in einen Wohn- oder Gewerbeblock integriert ist, liefert dort die Abwärme für Heizzwecke. Dadurch lassen sich Heizkosten einsparen, was sich wiederum positiv auf die Umwelt auswirkt.



Das könnte Sie auch interessieren