Neuer FPGA-Beschleuniger: Bittware und Achronix attackieren Xilinx, Intel und Nvidia

| Redakteur: Michael Eckstein

New kid on the block: VectorPath ist Bittwares erste Beschleunigerkarte für Rechenzentren auf Basis des Achronix Speedster7t-FPGAs.
New kid on the block: VectorPath ist Bittwares erste Beschleunigerkarte für Rechenzentren auf Basis des Achronix Speedster7t-FPGAs. (Bild: Bittware)

Mit neuen VectorPath-Beschleunigerkarten auf Basis des Speedster7t-FPGA wollen Bittware und Achronix den Enterprise-Markt aufmischen. Doch hier stoßen sie auf etablierte Konkurrenten wie Xilinx, Intel, Fujitsu – und Nvidia. Womit wollen die Neuen punkten?

Das 2004 gegründete Unternehmen Achronix ist einer der wenigen Anbieter, der sich im von Xilinx, Intel/Altera, Microchip/Microsemi und Lattice beherrschten FPGA-Markt mit dem interessanten Beschleunigerchip Speedster7t etablieren konnte. Nun haben Bittware und Achronix auf Basis dieses im 7-nm-FinFET-Prozess bei TSMC gefertigten FPGAs eine Beschleunigerkarte mit PCIe-Anschluss für unterschiedliche Workloads entwickelt. Nach eigenen Angaben soll sich das VectorPath S7t-VG6 genannte Produkt für den Einsatz in Cloud-Rechenzentren, aber auch für Applikationen im Netzwerkzugangsbereich eignen. In beiden Bereichen tritt es in direkte Konkurrenz zum Beispiel zu den Produkten von Intel und Xilinx. Die FPGA-Schwergewichte hatten vor wenigen Monaten nahezu zeitgleich ebenfalls FPGA-basierte Beschleunigerkarten vorgestellt. Während Intel seine PAC D5005 für den Einsatz in großen Rechenzentren vorsieht, hat Xilinx seine Alveo U50 für einen breiten Anwendungsbereich ausgelegt – vom On-Premise-Rechner bis hin zum Server im Cloud-Datenzentrum. Darüber hinaus hat auch Bittware Akzeleratoren auf Basis von Xilinx- und Intel-FPGAs im Angebot.

Ein Achronix-FPGA ist das Herz der flexiblen Beschleunigerkarte

Die nun von Bittware angekündigte Beschleunigerkarte VectorPath S7t-VG6 ist nach Aussage des Anbieters „für Anwendungen in der Datenverarbeitung konzipiert, die hohe Performance und hohe Bandbreite erfordern“ – also erwartbares, typisches Terrain für derartige Produkte. Entsprechend ist die Hardware auf möglichst hohen Datendurchsatz ausgelegt. So ergänzt eine 400-GBit-Ethernetschnittstelle die beiden 100-GBit-Varianten. An Bord ist ein mit 2666 MHz getaktetes DDR4-Speichermodul mit EEC. Dem 4 GByte großen DDR4-Arbeitsspeicher stehen acht GDDR6-Speicherchips zur Seite, die über zwei 16-Bit-Kanäle angebunden sind und 4 TBit/s übertragen können.

Das chipeigene 2D-NoC (Network-on-Chip) schafft noch deutlich mehr: Achronix gibt hier eine Tempo von 20 TBit/s an, mit dem Daten von den Schnittstellen über die FPGA-Fabric flitzen können; Bittware sogar 27 TBit/s. Diese basiert auf 256 Bit breiten, unidirektional arbeitenden Datenbussen in jede Richtung. Jede NoC-Reihe und -Spalte erreicht nominell 512 GBit/s. Als Hauptschnittstelle nutzt das NoC den Industriestandard „Advanced eXtensible Interface“-Bus, kurz AXI. Zum Konfigurieren des FPGAs stehen 692.000 LUTs (Look-up Tables) mit je sechs Eingängen bereit. Als Host-Schnittstelle kommt PCIe zum Einsatz, allerdings als Gen3-Version und nicht in der aktuellen Gen4-Version.

Spezielle KI-Rechenkerne im FPGA

Laut Herstellerangabe sind in die FPGAs Prozessorkerne integriert, die für rechenintensive Aufgaben wie künstliche Intelligenz beziehungsweise Maschinelles Lernen (KI/ML) optimiert sind. Achronix behauptet, dass der FPGA im ResNet-50 Benchmark 8.600 Bildern pro Sekunde erreicht und damit im Vergleich zu GPUs die drei- bis vierfache Rechenleistung bereitstellt. Gegenüber herkömmlichen CPUs soll der FPGA-Chip sogar 10 bis 100 Mal schneller arbeiten – bei gleichzeitig geringerem Stromverbrauch. Die tatsächlich erreichbare Performance hängt allerdings stark von der Applikation beziehungsweise der Workload ab.

Der Markt für derartige Beschleunigungslösungen in Rechenzentren ist in Bewegung. In den letzten Jahren dominierte beispielsweise Nvidia mit seinen GP-GPUs und CUDA-Programmierumgebungen den Markt für das Entwickeln und Trainieren künstlicher neuronaler Netzwerke für das Maschinelle Lernen (ML). Verstärkt kommen hier jedoch FPGAs zum Einsatz. So setzt beispielsweise Microsoft im großen Maßstab Intel-FPGAs ein, um seine Bing-Suche zu beschleunigen und eine zuverlässig hohe Rechenleistung für sein „Project Brainwave“ bereitzustellen, eine KI-Applikation auf Basis Neuronaler Netzwerke. Amazon hingegen nutzt Xilinx-FPGAs für seine AWS-Cloud.

Namhafte Anbieter sind bereits im Markt aktiv

Darüber hinaus bieten auch Server-Hersteller wie Dell, HPE und Fujitsu FPGA-gestützte Boards, Beschleunigerkarten oder Server an. Auch Bittware selbst ist mit Xilinx- und Intel-basierten Beschleunigern bereits in diesem Markt aktiv. Diese kommen oft dort zum Einsatz, wo Akteure selbst nicht ausreichend Ressourcen zur Verfügung haben, um eigene Beschleunigerlösungen von Grund auf selbst zu entwickeln, zu fertigen und zu testen. Das können Rechenzentren sein, Cloud-Anbieter, Industrieunternehmen oder auch Bildungseinrichtungen. Nicht zuletzt aufgrund der oft besseren Energieeffizienz kaufen Anwender verstärkt FPGA-gestützte Lösungen statt GP-GPU-Karten von Nvidia oder AMD.

In diesen Markt versucht Bittware nun mit der Achronix-FPGA-gestützten Lösung vorzudringen. Kunden versucht das Unternehmen mit Argumenten wie geringem Stromverbrauch, weitreichender Konfigurierbarkeit und der Optimierung für KI-Aufgaben zu überzeugen. Ihre Vorteile sollen die VectorPath-Beschleuniger in Anwendungen von der Data-Center- bis zur Edge-Applikation ausspielen können.

Open Titan: Google startet Open-Source-Projekt für sicheren Root of Trust

Open Titan: Google startet Open-Source-Projekt für sicheren Root of Trust

06.11.19 - Google legt eine Open-Source-Version seines Security-Chips Titan offen: Im Projekt Open Titan entwickelt das Unternehmen zusammen mit internationalen Partnern quelloffen einen Chip auf RISC-V-Basis, der für einen sicheren Hardware-Root-of-Trust sorgen soll. lesen

Xilinx Vitis: FPGA-Programmierung für alle

Xilinx Vitis: FPGA-Programmierung für alle

02.10.19 - Python und C++ statt HDL: Die „Vitis Unified Software Platform“ soll das Programmieren von Xilinx-FPGAs deutlich vereinfachen. So will das Unternehmen seine programmierbaren Logikbausteine einer breiteren Anwenderschaft zugänglich machen. lesen

FPGAs beschleunigen KI-gesteuerten Sprachassistenten

FPGAs beschleunigen KI-gesteuerten Sprachassistenten

05.11.19 - Massiv-parallel Rechenleistung und Rekonfigurierbarkeit: Mit FPGAs verbessert SK Telecom sowohl die Genauigkeit der Spracherkennung als auch die Reaktionszeit seines sprachaktivierten Assistenten NUGU. lesen

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 46221555 / FPGA)