Nachbericht AWS Summit Berlin Machine Learning ermöglicht Nachhaltigkeit

Von Michael Matzer

Anbieter zum Thema

Auf dem AWS Summit Berlin haben sich dieses Jahr rund 7.000 Besucher eingefunden, um sich über zwei zentrale Themen zu informieren: „Sicherheit im Cloudbereich“ und „Machine Learning für alle“. Constantin Gonzalez, Principal Solutions Architect bei Amazon Web Services (AWS) erläutert im Gespräch mit BigData-Insider, wie KI nicht nur Rechenleistung und Erkenntnisse ermöglicht, sondern auch Nachhaltigkeit fördert.

Das Auditorium war bei den beiden Keynotes bis auf den letzten Platz gefüllt.
Das Auditorium war bei den beiden Keynotes bis auf den letzten Platz gefüllt.
(Bild: ALEX TREADWAY )

Constantin Gonzalez, Principal Solutions Architect bei AWS
Constantin Gonzalez, Principal Solutions Architect bei AWS
(Bild: blende11_Fotografen )

Nachhaltigkeit ist inzwischen kein Verdienstorden mehr, den sich ein Unternehmen stolz an die Brust heften kann, sondern ein obligatorischer Wirtschaftsfaktor von wachsender Bedeutung. Nachhaltigkeit ist jüngst zur sechsten Säule im Well-Architected Framework von AWS gekürt worden, das Best Practices sammelt. Grund: Wer CO2 produziert, wird künftig immer mehr dafür zur Kasse gebeten, und wer das klimaschädliche Gas einsparen kann, wird dafür mit Zertifikaten belohnt. So macht es jedenfalls Tesla.

Es geht nicht nur um die Sicherung der Energieversorgung, mit der der Betrieb eines Cloud-Rechenzentrums gewährleistet wird, sondern um Compliance mit Gesetzesvorgaben und nicht zuletzt um die Wünsche der Kunden. Die DKB Bank beispielsweise weiß, wie das geht und schreibt auf ihrer Webseite: „Gemeinsam mit unseren Partnern entwickeln wir wirkungsvolle Lösungen für ökologische, soziale und wirtschaftliche Herausforderungen. Dabei handeln wir proaktiv, strategisch und zukunftsorientiert. Wir (…) verknüpfen Nachhaltigkeit mit Digitalisierung und technologischem Fortschritt. Wir werden regelmäßig von (…) renommierten Nachhaltigkeits-Ratingagenturen bewertet. Jedes Jahr veröffentlichen wir einen Nachhaltigkeitsbericht nach DNK-Standard (Deutsche Nachhaltigkeitskodex), eine Umwelterklärung und Bond Reportings.“

Solche Daten stehen in der Regel nur in dedizierten Datenquellen zur Verfügung. Um den Carbon Footprint des Kunden herauszufinden – und senken zu helfen –, stellt AWS mittlerweile ein gesondertes Analysewerkzeug bereit, das in der AWS Konsole zu finden ist. Das Unternehmen ist auf dem Weg, bis 2025 zu 100 Prozent mit erneuerbaren Energien zu arbeiten und gemeinsam mit dem Mutterunternehmen Amazon bis 2040 CO2-neutral zu sein – zehn Jahre vor dem Termin im Pariser Klimaabkommen.

Kundenbeispiel

AWS will das auch Kunden wie etwa der DKB Bank ermöglichen. „Die bekannten Skaleneffekte in Hardware und Rechenzentrum sorgen für höhere Effizienz als in einem lokalen Rechenzentrum“, erklärt Gonzalez. „Ein Bus transportiert Personen kosteneffizienter als ein Pkw.“ Etwas weniger offensichtlich ist der Zusammenhang zwischen nachhaltiger Energieeffizienz und Künstlicher Intelligenz.

Machine Learning wird nach Gonzalez‘ Angaben bei AWS mit Hochdruck vorangetrieben. Die oben erwähnte Hardware umfasst dedizierte KI-Chips bei AWS, die nur für KI gebraucht werden. „Die erhöhte Effizienz unserer Inferentia- und Trainium-Chips verschwendet weniger Energie. Der Kunde hat bis zu 45 Prozent geringere Kosten pro Inferenz und einen bis zu 30 Prozent höheren Durchsatz als bei einer generischen GPU – und je geringer der Energieaufwand seitens AWS ausfällt, desto geringer ist der CO2-Ausstoß.“

Technologie für Machine Learning

Auf die Frage, wie denn dedizierte KI-Chips so effizient arbeiten könnten, holt der Solutions Architect weiter aus. Machine Learning eigne sich für bestimmte Rechenarten wie etwa Matrix-Vektormultiplikationen und -additionen. Die neuronalen Netze lassen sich auf Matrizen herunterbrechen. Was dann im Prozessor passiert, sind sehr viele Additionen und Multiplikationen auf diesen Matrizen. „Man hat herausgefunden, dass GPUs, die man für Games entwickelt hat, das gleiche können. Die sind viel schneller als normale Prozessoren, um Matrizen zu multiplizieren.“ Warum? 3D-Grafik lebe auch von Vektoren und Matrizen, aber in einem ganz anderen mathematischen Umfeld. „In den letzten Jahren haben wir das Aufkommen der GPUs für das Machine Learning gesehen.“ So weit, so bekannt.

„Nun sind wir bei AWS einen Schritt weiter gegangen: Was passiert denn genau in so einer GPU? Welche Komponenten von GPUs werden besonders stark durch Machine-Learning-Algorithmen ausgelastet? Was fehlt noch? Wo sind die Bottlenecks? Wo gibt es noch Mankos, die man mit einem dedizierten Machine Learning Chip adressieren kann?“

Chips für Training und Inferenz

Gonzalez weiter: „Es gibt zwei Schritte beim Machine Learning, die Optionen öffnen. Wenn man ein Modell trainiert, hat man große Mengen von Trainingsdaten, die durch den Algorithmus verarbeitet werden müssen, um ein Modell zu lernen. Dadurch entsteht ein hoher Bedarf an Bandbreite, weil eine große Datenmenge durch den Algorithmus verarbeitet werden muss. Dafür haben wir Chips optimiert, die das besonders gut können. Das ist dann die Kategorie der Trainium-Chips.“

Nun zum zweiten Schritt, der Inferenz, in der der Algorithmus auf Trainings- oder Realdaten angewandt wird. „Zwei Jahre vorher haben wir Inferentia angekündigt, um die Anwendung eines Machine-Learning-Modells auf Daten – etwa in Alexa – als Inferenz zu optimieren. Hier tauchen die größten Kostenanteile auf, weil die in größten Skalen passieren.“ Das geht wie folgt vor sich: „Ich trainiere einmalig, aber ich kann das Modell auf Millionen Kunden ausrollen, etwa auf Gamer oder Alexa-User. Inferentia haben wir auf die effiziente Ausführung fertig trainierter Modelle optimiert. Damit können wir für Kunden sehr viel Geld sparen, die Machine Learning einsetzen.“

Anwendungsfälle

So funktioniert ein Prozess in der Inferentia-Instanz Inf1.
So funktioniert ein Prozess in der Inferentia-Instanz Inf1.
(Bild: AWS )

Für die Trainium- und Inferentia-Instanzen, die diese Chips nutzen, eignen sich bestimmte Nutzer. „Inferentia ist ein Hardware-Beschleuniger für EC2-Instanzen, folglich kann jeder AWS-Kunde Inferentia nutzen. Dafür steht die Inf1-Instanz in EC2 zur Verfügung. Diese EC2-Instanzen bieten bis zu 16 parallel arbeitende Trainium-Beschleuniger (EC2 Trn1-Familie) bzw. bis zu 16 parallel arbeitende Inferentia-Beschleuniger (EC2 Inf1-Familie). Sie eignen sich für alle Machine-Learning-Kunden in den Branchen Financial Services Industry, Health & Life Sciences, Fertigung und vieles mehr, beispielsweise in der rechtzeitigen Wettervorhersage, die heutzutage ja schon über Wohl und Wehe ganzer Regionen entscheiden kann.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

SageMaker Neo kompiliert Programmcode für zahlreiche Hardwareplattformen, darunter auch Inferentia.
SageMaker Neo kompiliert Programmcode für zahlreiche Hardwareplattformen, darunter auch Inferentia.
(Bild: AWS )

Kunden müssten nichts Besonderes machen, um Inferentia und Trainium zu verwenden. Die meisten Machine-Learning-Kunden verwenden bereits AWS SageMaker. In diesem Framework befänden sich Module, die beim gesamten Trainingsprozess das Machine-Learning-Modell auf Inferentia optimieren könnten. „Eine dieser Komponenten ist Amazon SageMaker Neo“, erklärt Gonzalez. „Neo ist ein Cross-Compiler, der ein Modell auf die Ziel-Hardware optimieren kann, also auch für Raspberry Pi, für Inferentia und für zahlreiche Edge-Geräte.“ Das sorgt dann für die jeweils optimale Ausführung auf der Zielplattform.

Die Vorteile liegen auf der Hand: „Der Kunde hat bis zu 45 Prozent geringere Kosten pro Inferenz und einen bis zu 30 Prozent höheren Durchsatz als bei einer generischen GPU. Dieser Durchsatz ist erzielbar, weil die Ergebnisse für die Logik relativ vorhersehbar sind. Pre-fetching und Multithreading spielen eine Rolle, aber bei Inferentia geht die optimierte Machine-Learning-Logik noch viel weiter.“

Beispiel Münchner Leukämie Labor

Ein AWS-Kunde, den Gonzalez anführt, ist das Münchner Leukämie Labor (MLL). Es analysiert Blutproben mit Machine Learning. Die Herkunftsanalyse erfolgt mithilfe von Amazon SageMaker, wobei ein individueller Algorithmus genutzt und trainiert wird. „Das Modelltraining ist spezifisch, denn es gibt Hunderte von Arten von Leukämie, die für die Diagnose und später für die Behandlung wichtig sind.“

Die Bildverarbeitung erfolge mit einem Computer-Vision-Algorithmus. Dieser teilt mit, wie wahrscheinlich eine bestimmte Leukämie in der jeweiligen Blutprobe vorliegt. Computer Vision wird bei der Analyse von Bildern von Blutzellen verwendet, für die Gen-Analyse kommen andere Algorithmen zum Einsatz. „Der Mediziner kann dann diese Daten als Grundlage für eine Diagnose verwenden. Die Diagnosen werden skalierbar gemacht und erfolgen dementsprechend performant.“ Gonzalez zählt noch viele weitere Beispiele auf, so etwa in der Landwirtschaft.

FPGA-Chips

Nach einem Hinweis, dass nicht nur GPUs und Spezial-Chips Machine-Learning-Prozesse beschleunigen könnten, verwies Gonzalez auf die FPGA-Technologie. FPGA steht für Field Programmable Gate Array. „Bei AWS gibt es auch FPGA-Instanzen, die F1 genannt werden. Diese Instanzen helfen, einen individuellen Algorithmus oder ein Verilog-Programm auf einem FPGA-Chip von Xilinx auszuführen. Der Nutzer lädt seinen Code in die F1-Instanz hoch, um ihn ausführen zu lassen.“ Amazon-EC2-F1-Instanzen unterstützen FPGA-Programmierung über gängige FPGA-Programmierumgebungen. Diese setzen häufig Verilog oder VHDL als Hardwarebeschreibungs-Sprachen ein.

Einer der Nutzer sei das Biotech-Unternehmen Centogene. Die Firma, die in der Keynote auftrat, diagnostiziert und behandelt seltene Krankheiten. Zunächst wird der persönliche Gencode einer Person – immerhin rund 80 Gigabyte – sequenziert, dann wird dieses Erbgut auf Mutationen oder Lücken untersucht. Centogene liefert auf der Grundlage dieser Gendatenbank vier Dienstleistungen, darunter Diagnose und Therapieempfehlungen. „Der Beitrag von AWS besteht in Datensicherheit und Identität, Infrastrukturdiensten, Datenspeicherung und Managed Services für die Entwicklung von Analyse- und ML-Anwendungen wie etwa Genanalyse“, sagte Ana Popic, Head of Centogene Belgrad. Das ist also recht substantiell.

„Wir helfen also Kunden, sich auf ihr Geschäft zu konzentrieren“ resümiert der Solutions Architect. „Wir liefern unser IT-Wissen und die Kunden bringen ihr Domänenwissen ein, etwa Biotechnologie. Sie bauen Lösungen für ihre Kunden, beim MLL und bei Centogene also für Patienten.“

Gravitron3-Instanzen

Ein vierter Beschleunigertyp besteht nach Angaben von Gonzalez in dem Graviton3-Chip, einem AWS-Chip, der auf der ARM-Plattform aufbaut: Er verbrauche weniger Energie und verursache weniger Kosten als ein x86-Prozessor. „Der Graviton3 ist bis zu 25 Prozent schneller als der Graviton2-Chip und bis zu 60 Prozent energieeffizienter als herkömmliche Prozessoren. Das bedeutet für den Kunden ein bis zu 40 Prozent bessere Preis-Leistungs-Verhältnis.“

Eine effiziente und sichere Programmiersprache

Es gebe laut Gonzalez noch einen fünften Faktor, den AWS eher indirekt zur Wirkung von Energieeffizienz auf die Nachhaltigkeit beitrage. „Unsere Kunden können u. a. Programmiersprachen finden, die effizient mit Ressourcen umgehen, etwa bei Rechenzyklen. Je weniger gerechnet werden muss, desto nachhaltiger arbeitet ein Programm.“

Zu diesen effizienten Sprachen gehöre die quelloffene Programmiersprache Rust von der Mozilla Foundation. Weil sie schon zu Compile-Zeit gängige Fehler verhindert, könne sie die Speichernutzung sowie die Datensicherheit besser kontrollieren. „Sie kombiniert die Effizienz von C mit der Verlässlichkeit höherer Programmiersprachen. Mit Rust – Rost ist nah am Metall – ist der Entwickler nah an der Hardware und kann Code programmieren, der sehr schnell ist.“

Der Clou ergibt sich daraus. „Wie ist dann aber der Speicher zu verwalten, ohne Sicherheitsprobleme zu erzeugen?“, fragt sich Gonzalez. „Rust macht es daher schwer, fehlerhaften Code zu produzieren. Der Rust Compiler ist so aufgebaut, dass der Entwickler keine Speicherlöcher (Leaks) einbauen kann, weil die Konstrukte in der Programmiersprache das nötige Speichermanagement als Feature forcieren.“

Dieser wichtige und nachhaltigkeitswirksame Effekt werde schon auf Compilerebene geprüft, sodass der Entwickler „gesundes“ Speichermanagement mitbringt. Damit sei Rust aber auch eine besonders sichere Programmiersprache. „Die meisten Sicherheitslücken entstehen, weil ein Speicherüberlauf dazu führt, dass der Prozessor anfängt, in Speicherbereiche reinzuschreiben, wo er nichts zu suchen hat.“ Die so entstehenden Sicherheitslücken würden von vornherein unterbunden.

„Wir bei AWS haben uns sehr früh bei der Rust Community engagiert“, berichtet Gonzalez. „Viele Kerndienste sind inzwischen in Rust programmiert, so etwa Teile des AWS-Hypervisors Nitro, die sehr sicherheitskritisch sind. Sie verwenden die erwähnten Sicherheitsfeatures. Zunehmend andere große Teile von AWS sind in Rust implementiert, weil uns das hilft, sicheren Code zu produzieren.“

Dieser Beitrag stammt von unserem Partnerportal Bigdata-Insider.de.

(ID:48397335)