Intel

Was müssen Supercomputer für das Exascale-Zeitalter können?

| Redakteur: Holger Heller

Supercomputer auf Basis von Intel-Prozessoren belegen 77 Prozent aller Einträge der jüngsten TOP500-Liste und stellen knapp 90 Prozent aller neuen Systeme des Jahres 2011. Wie sieht Intels Strategie beim Übergang vom Petascale- auf das Exascale-Computing aus?

Kirk Skaugen, Vice President und General Manager der Data Center Group von Intel, erläuterte im Rahmen der International Supercomputing Conference in Hamburg, wie das Unternehmen bis Ende dieses Jahrzehnts Leistungen im ExaFLOP/s-Bereich ermöglichen möchte. Mit einer Trillion Rechenoperationen pro Sekunde bedeutet ein ExaFLOP/s mehrere Hundertmal mehr Leistung als sie heutige Supercomputer bieten.

Um Exascale-Rechenleistung zu erreichen, sind neue Hardwareansätze wie Intels Many-Integrated-Core-(MIC-)Architektur notwendig. Wachsende Datenmengen verlangen nach kontinuierlich steigender Rechenleistung wie sie nur Supercomputer bieten können.

Die MIC-Architektur ergänzt bestehende Produkte wie Intels Xeon-Prozessoren und soll der Branche den Weg in das Zeitalter des Exascale-Computing ebnen. Das erste MIC-Produkt (Codename „Knights Corner“) soll auf Basis von Intels 22-nm-Technologie hergestellt werden, die über 3D-Tri-Gate-Transistoren verfügen. Intel liefert bereits MIC-Softwareentwicklungsplattformen (Codename „Knights Ferry“) an ausgewählte Partner.

„Bei den Supercomputern der TOP500-Liste sind unsere Xeon-Prozessoren erste Wahl“, so Skaugen, „mit der MIC-Architektur erweitern wir unser Engagement im High-Performance-Computing und bereiten diese Branche auf die kommenden Workloads im Peta- und Exascale-Bereich vor“.

Den Weg für Exaflop-Leistung bereiten

Skaugen beschrieb drei Vorraussetzungen, die den Schritt vom Petascale-Computing hin zur Ära des Exscale-Computings möglich machen können: Die Fortschreibung des Moore’schen Gesetzes, kombiniert mit einem neuartigen Modell zur Softwareprogrammierung sowie die hohe Skalierbarkeit der Systeme. Dieser Leistungszuwachs bedeutet aber auch einen Anstieg der Energieaufnahme.

So würde der derzeit schnellste Supercomputer in China, der Tianhe-1A, zum Erreichen von Exascale-Leistung mehr als 1,6 GW an Energie benötigen. Dies wäre ausreichend Energie, um zwei Millionen Haushalte mit Energie zu versorgen. Somit stellt sich hinsichtlich der Energieeffizienz eine enorme Herausforderung.

Intel und Forscher aus Europa haben drei europäische Labore eingerichtet, um sich dieser Herausforderung anzunehmen. Die Labore verfolgen das Ziel, die Relevanz des High-Performance-Computings in Europa zu nutzen sowie die Fähigkeiten in den Bereichen rechnergestützte Naturwissenschaften, Entwicklung und Strategic Computing auszubauen. Zudem sollen die Labore Simulationsanwendungen erstellen, um Exascale-Leistung im Bezug auf Energieeffizienz zu untersuchen.

High Performance Computing als Wachstumsmarkt

Laut Skaugen birgt der HPC-Markt ein immenses Wachstumspotenzial. Leisteten die Supercomputer der 80er Jahre noch GigaFLOP/s (Milliarden Fließkommaoperationen pro Sekunde), liefern die schnellsten Maschinen heute ein Millionenfaches dessen. Dadurch ist auch die Prozessor-Nachfrage im Supercomputing-Umfeld gestiegen.

Intel erwartet, dass die Top 100 der Supercomputer im Jahr 2013 eine Million Prozessoren verwenden werden. Bis 2015 soll sich diese Zahl verdoppeln und bis zum Ende des Jahrzehnts sogar auf acht Millionen ansteigen. Die Leistung des schnellsten TOP500-Computers wird im Jahr 2015 schätzungsweise bei 100 PetaFLOP/s liegen und die Grenze von einem ExaFLOP/s im Jahr 2018 durchbrechen.

Bis zum Ende des Jahrzehnts wird das schnellste System auf der Erde mehr als 4 ExaFLOP/s leisten.

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 27842410 / Mikrocontroller & Prozessoren)