Programmierbare Logik

Die vier Zeitalter der FPGA-Entwicklung

Seite: 3/5

Firmen zum Thema

Das Zeitalter der Expansion: 1992 – 1999

XC3042 von 1995: Da FPGA-Hersteller Anfang der 1990er Jahre ausschließlich als Fabless-Anbieter auftraten, mussten die Bausteine im Vergleich zu anderen Halbleitern erst gewisse Fertigungshindernisse überwinden.
XC3042 von 1995: Da FPGA-Hersteller Anfang der 1990er Jahre ausschließlich als Fabless-Anbieter auftraten, mussten die Bausteine im Vergleich zu anderen Halbleitern erst gewisse Fertigungshindernisse überwinden.
(Bild: Xilinx)

Die FPGA-Startups operierten meist als Fabless-Anbieter – damals eine echte Novität. Fabless bedeutete, dass sie in den frühen Neunziger Jahren kaum Zugang zu den führenden Siliziumtechnologien hatten. Als Ergebnis starteten die FPGAs in das Zeitalter der Expansion mit starkem Rückstand auf der IC-Prozess-Lernkurve. Im weiteren Verlauf der Dekade realisierten die IC-Foundries dann, dass die FPGAs ideale Treiber der Prozesstechnologie waren und laufende Fortschritte brachten.

Die Foundries waren in der Lage, SRAM-basierte FPGAs zu bauen, sobald sie Transistoren und die Verdrahtung in einer neuen Prozesstechnologie mit genügender Ausbeute produzieren konnten. Jede neue Prozess-Generation verdoppelte die Anzahl der verfügbaren Transistoren. Das halbierte die Kosten pro Funktion und verdoppelte den Umfang der größten verfügbaren FPGAs. Chemisch-mechanischen Polieren (CMP) ermöglichte den Foundries das Stacking von immer mehr metallischen Layern auf einem IC. Und das erlaubte den FPGA-Anbietern die aggressive Ausdehnung des On-chip Interconnect, um eine größere LUT-Kapazität zu erreichen.

Die Chipfläche war damals nicht mehr so kostbar wie sie im Zeitalter der Erfindung gewesen war. Fläche ließ sich nun gegen Performance, Features und Einfachheit im Einsatz tauschen. Größere FPGA-basierte Designs erforderten Synthese-Tools mit automatischem Placement und Routing. Gegen Ende der Neunziger Jahre waren deshalb automatisierte Synthese, Platzierung und Routing die gängigen und geforderten Schritte im Design-Prozess. Das Überleben eines FPGA-Anbieters hing nun von den Fähigkeiten seiner EDA-Tools ebenso ab wie von den Fähigkeiten seiner FPGAs.

Bild 2: Wachstum der FPGA-LUTs und des Interconnect im Lauf der Zeit. Die Verdrahtungslänge ist in Millionen von Transistor-Pitches ausgedrückt.
Bild 2: Wachstum der FPGA-LUTs und des Interconnect im Lauf der Zeit. Die Verdrahtungslänge ist in Millionen von Transistor-Pitches ausgedrückt.
(Bild: Xilinx)

Besonders wichtig: Der einfachste Weg zur Kapazitätsverdoppelung und Kostenhalbierung der On-chip FPGA-Logik war jetzt, rechtzeitig den nächsten Node der Prozesstechnologie anzusteuern. Somit war der frühe Zugriff auf die neuen Nodes von beträchtlichem Wert. SRAM-basierte FPGAs realisierten während dieser Zeit einen signifikanten Produktvorteil, weil sie als erste jeden neuen Node aufgreifen konnten: SRAM-basierte Bausteine konnten neue, dichtere Prozesse sofort nutzen, während es mehrere Monate oder Jahre dauerte, ehe die Antifuse-Technik für neue Nodes qualifiziert war. Damit verloren die Antifuse-basierten FPGAs ihren Wettbewerbsvorsprung. Innovationen in der Architektur waren nun weniger wichtig als die rasche Prozess-Migration, um Geschwindigkeits- und Kostenvorteile zu erzielen.

Artikelfiles und Artikellinks

(ID:44225171)