Suchen

COM-HPC Server: Neuer Standard für modulare Edge-Server

| Autor / Redakteur: Christian Eder * / Margit Kuther

COM-HPC Server ist Teil des neuen COM-HPC-Standards. Die Spezifikation liefert High-End Edge-Server-Computern modernste High-Speed-Schnittstellen wie PCI Express 4.0 und 5.0 sowie 25 GBit Ethernet.

Firmen zum Thema

COM-HPC Server-Designs: Sie ermöglichen das Loadbalancing am Edge nicht nur durch Virtualisierung, sondern auch durch die bedarfsgerechte Skalierung der Cores.
COM-HPC Server-Designs: Sie ermöglichen das Loadbalancing am Edge nicht nur durch Virtualisierung, sondern auch durch die bedarfsgerechte Skalierung der Cores.
(Bild: Congatec)

Die PICMG wird in Kürze den Computer-on-Module-Standard COM-HPC offiziell verabschieden. Ein Teil des neuen Standards ist die Spezifikation COM-HPC Server. Sie wurde für das High-End Edge-Server-Computing entwickelt, das die neuen High-Speed-Schnittstellen wie PCI Express 4.0 und 5.0 sowie 25 GBit Ethernet sehnsüchtig erwartet. Gegenüber etablierten COM Express Type 7 basierenden Server-on- Modules hat die neue Spezifikation mit 800 Signalleitungen nahezu eine doppelt so hohe Schnittstellenbandbreite, sodass sich neben der Performancesteigerung auch der Funktionsumfang deutlich erhöht. Was sind die wichtigsten Märkte und Applikationen für die neuen High-End Server-on-Modules und wo liegen die Grenzen?

COM-HPC Server adressiert die gesamte Bandbreite an Edge-Servern, denn die neuen Server-on-Modules können mit einer maximalen Leistungsaufnahme von bis zu 300 Watt die leistungsfähigen Server-Prozessoren Intel Xeon und AMD EPYC verwenden. Erste Module werden jedoch voraussichtlich erst mit dem Launch der nächsten Intel-Embedded-Server-Prozessoren verfügbar.

Unterstützen können COM-HPC-Module aktuell bis zu 1 Terabyte RAM auf bis zu 8 SO-DIMM Sockeln, was letztlich der limitierende Faktor ist: Der auf den Modulen gehostete Speicher kann nicht mittels Intel Ultra Path Interconnect beziehungsweise AMD Infinity Fabric Inter-Socket auch anderen parallel betriebenen Prozessoren unmittelbar zur Verfügung gestellt werden. Sie stehen vielmehr jedem einzelnen COM-HPC-Modul exklusiv zur Verfügung. Dual-Die/Single-Socket-Cascade-Lake-Prozessortechnologie mit bis zu 12 Sockel RAM sind mit COM-HPC ebenfalls nicht umsetzbar.

Master/Slave-Funktion für Künstliche Intelligenz

Dennoch sind Multimodul-Installationen auf einem Carrierboard vorgesehen, das COM-HPC-Master/Slave-Konstellationen zulässt. Diese Funktion zielt jedoch nicht so sehr auf Dual-Prozessor-Carrierboards ab, bei denen man zwei oder mehrere COM-HPC-Servermodule im Master/Slave-Modus betreiben könnte. Vielmehr soll sie das Zusammenspiel zwischen COM-HPC-Servermodulen und den Modulen COM-HPC FPGA und/oder COM-HPC GPGPU ermöglichen – einem neben COM-HPC-Server- und COM-HPC-Client-Modulen dritten Anwendungsgebiet des Standards COM-HPC.

Die bei Computer-on-Modulen erstmals verfügbar gemachte Master-Slave-Funktion wurde also primär dazu implementiert, flachbauenden GPGPU- beziehungsweise FPGA-Modulen auf einen gegenüber MXM deutlich leistungsfähigeren Formfaktor verfügbar zu machen. Dadurch steht der COM-HPC-Standard auch für die Integration von Funktionen wie Künstliche Intelligenz und Deep-Learning sowie für die Telekommunikation wichtige digitale Signalverarbeitung (DSP), die mit COM-HPC robust, platzsparend und bedarfsgerecht skalierbar verfügbar gemacht werden können. Server-on-Modules nach dem Standard COM-HPC Server werden folglich in der Regel nicht auf Dual-Prozessor-Boards implementiert. Damit positioniert sich dieser Standard im Mid-Performance-Segment der Servertechnologie, die am Edge in ganz unterschiedlichen Zuschnitten gefordert wird.

5G-Infrastruktur-Server und angebundene Edge-Systeme

Ein großer Bedarf nach robuster Server-Class-Performance entsteht vor allem durch Edge-Applikationen, die direkt in und an den Netzwerk- und Kommunikationsinfrastrukturen residieren, wie etwa Outdoor Small Cells am 5G Funkmast für taktiles Breitband-Internet oder auch Carrier-grade Edge Server Designs mit 20 Zoll Einbautiefe, die man aktuell in 3G/4G-Edgeserver-Räumen vorfindet, bei denen die Einbautiefe der Racks lediglich 600 mm beträgt.

In beiden Fällen werden die Systeme für kommende 5G-Designs gerne mit GPU- oder FPGA-Karten angereichert, um beispielsweise das Echtzeit-Scheduling der Datenübertragung im Mikrosekundenbereich zu ermöglichen , was den Bedarf nach der Master/Slave-Funktion bei COM-HPC nochmals unterstreicht. Attraktiv sind COM-HPC-Server-Module auch für entsprechende 5G-Messtechnik.

OCCERA Server mit vollem NFV- und SDN-Support

Ein weiterer Anwendungsbereich der COM-HPC-Server-Module sind auch robuste Edge-Server-Designs, die auf Basis der Open Compute Carrier-grade Edge Reference Architecture (OCCERA) in Racktiefen von 1000 beziehungsweise 1200 mm gebaut werden. Aufgrund zunehmender Virtualisierung und Unterstützung für NFV und SDN wird auf solchen offenen Standardplattformen zunehmend auch dediziertes Infrastruktur-Equipment implementiert wie Firewalls, Intrusion Detection Systeme, Traffic Shap­ing, Content-Filter, Deep Packet Inspection, Unified Threat Management sowie Antiviren-Anwendungen. Auch hier profitieren Anwender von einer bedarfsgerechten Skalierung der Performance und kosteneffizienten Performance-Upgrades für die nächste Servergeneration.

Von Industrie 4.0 bis zur Workload Konsolidierung

Vergleich: COM-HPC-Server-Interfaces bieten deutlich mehr Schnittstellen als COM-Express- Type-7-Module.
Vergleich: COM-HPC-Server-Interfaces bieten deutlich mehr Schnittstellen als COM-Express- Type-7-Module.
(Bild: Congatec)

Letztlich gehören zum Edge-Equipment auch vor allem all die anwendungsnahen Fog-Computer – also redundant ausgelegte Clouds am Edge – die im rauen industriellen Umfeld benötigt werden, um die Industrie-4.0-Kommunikation zu ermöglichen und/oder mittels Big Data Analytik am Edge neue Geschäftsmodelle sowie umfassende Predictive Maintenance durchsetzen zu können. Ein weiteres Anwendungsgebiet eröffnet sich auch durch die Möglichkeit der Konsolidierung der Rechenperformance auf einem einzigen Edge-Server anstatt diese auf verteilten Rechnern bereitzuhalten – beispielsweise um eine Fertigungszelle mit mehreren Robotern steuern zu können.

Energienetze, autonome Fahrzeuge und Schienenverkehr

Edge-Server ähnlichen Zuschnitts werden auch in smarten Energienetzen benötigt, um in Microgrids und virtuellen Energienetzen Erzeugung und den Verbrauch in Echtzeit in Einklang zu bringen, wobei in solchen verteilten Applikationen auch Echtzeit-5G eine Rolle spielen wird, da die hohen Bandbreiten entlang der Infrastrukturwege mit vergleichsweise wenig Aufwand verfügbar gemacht werden können. Auch autonome Fahrzeuge werden von 5G profitieren. Gleichsam brauchen auch sie COM-HPC-Serverperformance im Cockpit, da sie auch onboard hohe Bandbreiten zu verarbeiten haben, um Daten von hunderten Sensoren in Bruchteilen einer Sekunde zu analysieren.

Weitere Applikationen finden sich in Tansportation-Applikationen, namentlich im Schienenverkehr – hier sowohl im Zug als auch in der Infrastruktur – für alle Services die erforderlich sind, von der Sicherheitstechnik bis hin zu Stream­ing-Diensten für Infotainment. Mobile Boadcastingsysteme und Streamingserver sowie Equipment für den nichtöffentlichen mobilen Landfunk für Behörden und Organisationen mit Sicherheitsaufgaben (Digitaler BOS-Funk) sind weitere Anwendungsbereiche für COM-HPC-Server-Module.

Smarte Vision-Systeme für Inspektionen

Ein nicht unerheblicher Teil der COM-HPC Server Applikationen finden sich auch in Medical Backend-Systemen, in industriellen Inspektionssystemen sowie in Videoüberwachungslösungen am Edge zur Steigerung der öffentlichen Sicherheit, bei denen – so wie im Autonomen Vehikel Bereich auch –massiv Video- und bildgebende Daten parallel verarbeitet werden müssen. Ein nicht unerheblicher Teil der Anwendungen wird hier allerdings nicht auf COM-HPC GPGPU setzen, sondern noch leistungsfähigere FPGA-Erweiterungen oder PEG-Grafik nutzen wollen.

Neben den oft dedizierten Systemauslegungen für die bis hierhin beschriebenen Anwendungsbereiche werden COM-HPC-Module auch auf robusten und langzeitverfügbaren Standard-Motherboards zum Einsatz kommen, die für das Design von kleineren Servern gedacht sind.

Modulare, langzeitverfügbare Motherboard-Auslegungen

Zum Einsatz kommen sie zumeist in Rackmount-, Workstation- oder Tower-Designs. Das sind beispielsweise Boards vom µ-ATX-Format (244 mm x 244 mm) bis hin zum Extended-ATX-Formfaktor (305 mm x 244 mm). Auch EEB-Mainboards (305 mm x 330 mm) werden COM-HPC nutzen können. Da sie teils jedoch auch mit zwei Prozessoren bestückt werden, werden sie nur einen Teilmarkt dieses Formfaktors erobern können. Diesem sollten sie aber ungeahnte Skalierbarkeitsoptionen bieten gepaart mit der Option eines extrem kostengünstigen und effizienten Customizings der I/O-Interfaces. Dies ist für Edge-Applikationen von Vorteil, da es in der Industrie in Richtung Prozess- und Feldebene eine äußerst heterogene Kommunikationslandschaft gibt. Die COM-HPC-Server-Module eignen sich folglich für ein extrem breites Anwendungsfeld an Edge- und Fog-Servern im rauen Umfeld wobei in der Regel der Prozessor im Vordergrund steht.

Warum COM-HPC-Server- Module nutzen?

COM-HPC Server-Formfaktoren: es gibt zwei unterschiedliche Varianten, die entweder vier oder acht SO-DIMM-Sockel hosten können.
COM-HPC Server-Formfaktoren: es gibt zwei unterschiedliche Varianten, die entweder vier oder acht SO-DIMM-Sockel hosten können.
(Bild: Congatec)

Die Spezifikation COM-HPC Server bietet Edge-Servern alle Vorteile eines standardisierten Server-on-Moduls, wie man sie auch schon aus dem Markt der Computer-on-Modules kennt: Die Performance kann bedarfsgerecht auf die Applikation hin zugeschnitten werden. In einem Rack mit gleichen Servereinschüben kann die Performance also auch physikalisch durch die passende Auslegung eines jeden einzelnen Moduls angepasst werden, sodass die Preis/Performance-Ratio optimal an die Applikation angepasst werden kann.

Dies ist vor allem auch für Echtzeitapplikationen von Vorteil, da man hier das Load-Balancing nicht mal so einfach unabhängig von den realen physikalischen Ressourcen skalieren lassen kann. Man muss vielmehr reale Ressourcen dediziert zuweisen können. Sollen Performanceupgrades auf Basis bestehender Systemauslegungen umgesetzt werden, können die Kosten für die nächste Generation auf etwa 50% der Anfangsinvestition reduziert werden, da in den meisten Fällen nur das Prozessormodul getauscht werden muss. Daraus ergeben sich eine erheblich reduzierte TCO und ein beschleunigter ROI.

Ausgereifte Server Management Interfaces

Die herstellerunabhängige Standardisierung sichert zudem Second-Source-Strategien, wettbewerbsfähige Preise sowie eine hohe Langzeitverfügbarkeit. Letztlich sind Server-on-Modules auch nachhaltiger und tragen zu einem geringeren CO2-Footprint bei der Produktion der Servertechnologie bei, was – trotz allen Energieverbrauchs im Dauerbetrieb – letztlich auch einen erheblichen Beitrag für eine geringere Umweltbelastung darstellt.

Ein weiterer Vorteil der neuen Spezifika­tion ist auch die Verfügbarkeit eines dedizierten Remote-Management-Interfaces. Die Auslegung dieser Schnittstelle wird gerade im Subkomitee PICMG Remote-Management erarbeitet. Es verfolgt das Ziel, Teile der im Intelligent Plattform Management Interface (IPMI) spezifizieren Funktionssatzes für das Remote-Management von Edge-Server- Modulen verfügbar zu machen. Ähnlich wie bei der Slave-Funktion wird COM-HPC also auch für das Remote Management erweiterte Funktionen zur Kommunikation mit den Modulen bereitstellen.

Für individuellen Interfacezuschnitt und Leistungsupgrades

Im Wandel: Die Spezifikation eines neuen High-End-Embedded-Computing-Standards wurde erforderlich, da COM Express bereits im Jahre 2005 gelauncht wurde und damit 15 Jahre alt ist.
Im Wandel: Die Spezifikation eines neuen High-End-Embedded-Computing-Standards wurde erforderlich, da COM Express bereits im Jahre 2005 gelauncht wurde und damit 15 Jahre alt ist.
(Bild: Congatec)

OEM und Anwendern werden mit diesem Funktionssatz die auch sonst bei Servern übliche Zuverlässigkeit, Verfügbarkeit, Wartbarkeit und Sicherheit (aka RAMS) sicherstellen können. Diese Funktionalität lässt sich über den auf dem Carrierboard zu implementierenden Board-Management-Con­troller auch noch individuell ausbauen, so dass OEM eine immer gleichbleibende Basis für das Remote-Management erhalten, die sie nach ihren Anforderungen aber beliebig erweitern können.

In der Summe bietet COM-HPC Server also viele Vorteile. Unschlagbar sind Server-on-Modules dabei vor allem immer dann, wenn der Edge-Server einen ganz spezifischen Mix an Interfaces erhalten soll und dies auf kleinem Raum, denn dann ist das Carrierboad-Design deutlich schneller und kostengünstiger umgesetzt, als bei einem Full-Custom-Design. Bis zu 80% und teils noch mehr der NRE-Kosten können so gespart werden. Darüber hinaus werden COM-HPC-Server-Module aller Voraussicht nach auch eine hohe Verbreitung in Standard-Industrieservern finden, da die Kostenvorteile der Performance-Skalierung für die nächste Generation unschlagbar sind. Die Verwendung von Modulen wird vor allem dadurch verstärkt, dass Serverleistung zunehmend as-a-Service bereitgestellt wird, sodass die Investitionen vom Serviceanbieter und nicht mehr vom Anwender getragen werden müssen.

Diesen Beitrag lesen Sie auch in der Fachzeitschrift ELEKTRONIKPRAXIS Ausgabe 10/2020 (Download PDF)

* Christian Eder ist Director Marketing bei congatec und Chairman des PICMG Subkomitees für COM-HPC

(ID:46496350)