Edge-Computing in der Industrie: Die Reaktionszeit entscheidet

| Autor / Redakteur: Arno Martin Fast und Robert Bieber * / Michael Eckstein

Grenzenlos: Über den App-Store können Applikationsentwickler auf ein ganzes Universum an Applikationen - auch von Drittanbietern - zugreifen.
Grenzenlos: Über den App-Store können Applikationsentwickler auf ein ganzes Universum an Applikationen - auch von Drittanbietern - zugreifen. (Bilder: Phoenix Contact)

Edge-Computing, Fog- oder Cloud-Computing: Je nachdem, welche minimale Reaktionszeit eine industrielle Anwendung erfordert, sind unterschiedliche Computing-Modelle für die Digitalisierung geeignet.

Der Trend zur Digitalisierung industrieller Anwendungen beispielsweise per Edge-Computing, Fog- oder Cloud-Computing beinhaltet neben vielfältigen Chancen auch etliche Risiken. So werden beispielsweise große Rechenleistungen und erhebliche Speicherkapazitäten benötigt, um die anfallenden Aufgaben erledigen zu können. Beim Public-Cloud-Computing besteht in der Regel eine Verbindung über das Internet zur Cloud. Viele Applikationen sind darauf ausgelegt, Daten in sehr kurzen Zyklen zu erfassen, zu überprüfen und schnell in den einen Prozess zurückzuführen.

In einem solchen Szenario würde sich eine Cloud-Lösung schon aufgrund der im durch das Internet bedingten Latenzzeiten nicht eignen. In derartigen solchen Anwendungsfällen kommen immer häufiger Edge- oder Fog-Computing-Lösungen zum Einsatz. Doch wie funktioniert dieses Konzept? Welche Vor- respektive oder Nachteile gibt es? Und ist es vor diesem Hintergrund überhaupt sinnvoll, sich mit solchen Computing-Ansätzen auseinander zu setzen? Oder handelt es sich lediglich um „alten Wein in neuen Schläuchen“?

Datenvorverarbeitung in den einzelnen Geräten

Das Edge-Computing eröffnet dem Anwendern die Möglichkeit, die aufgenommenen Daten mit Netzwerktechnologien direkt an ihrem Entstehungsort – also „at the edge“ – auszuwerten. Mit dem Edge-Computing stehen leistungsfähige Analyse-Technologien somit praktisch überall und zu jedem Zeitpunkt zur Verfügung (Bild 1). Auf diese Weise können Mitarbeiter den Zustand von Maschinen und Anlagen überwachen, die in abgelegenen Gegenden und/oder an sehr unzugänglichen Orten installiert sind. Erfordernisse für eine Wartung oder den Ersatzteilbedarf lassen sich viel genauer ermitteln.

Edge-Computing erweist sich in vielen Fällen als eine geeignete Alternative für Unternehmen, die keinen unmittelbaren Zugriff auf hohe Bandbreiten und einen schnellen Weg in die Cloud haben. Das gilt zum Beispiel für die Betreiber von Wassergewinnungs- sowie Solar- und Windenergieanlagen. Auf der Grundlage der beschriebenen zustandsabhängigen Wartungskonzepte, bei denen die Maschinen und Geräte in Echtzeit kontrolliert werden, lassen sich die Kosten für den Service deutlich senken und die Produktivität entsprechend steigern.

Die Begriffe des Edge- und Fog-Computing werden oftmals synonym verwendet, und die damit beschriebenen stehenden Technologien sind sich auch sehr ähnlich. Bei beiden Ansätzen steht der Gedanke im Vordergrund, die Rechenleistung von der Cloud in Richtung des Datenursprungs zu verschieben. Edge und Fog unterscheiden sich hierbei nur im Grad dieser Verlagerung. Beim Fog-Computing werden die Daten aus mehreren Endgeräten an einer zentralen Stelle gesammelt und verarbeitet – also ganz ähnlich wie beim eigentlichen Cloud-Gedanken. Der Ort , an dem die Datenverarbeitung verarbeitet werden, befindet sich jedoch nicht in einem großen Rechenzentrum des Cloud-Anbieters. Vielmehr wird eine Art „Mini-Rechenzentrum“ genutzt, das meist am gleichen Standort angesiedelt ist wie die Steuerungen, die die Daten liefern (Bild 2).

Dort werden zum Beispiel zeitkritische Berechnungen vorgenommen, die einen Einfluss auf die Maschine haben und nur lokal erfolgen können. Eine globale, rechenintensive Analyse und Weiterverarbeitung der Daten geschieht weiterhin im überlagerten Cloud-System. Edge-Computing geht noch einen Schritt weiter: Hier findet die Daten(vor)verarbeitung tatsächlich in den einzelnen Geräten statt, in denen die Daten generiert werden. Ein solches Konzept stellt daher höhere Anforderungen an die lokal verbauten Geräte in puncto Rechenleistung, Offenheit und Zugriffssicherheit.

Unabhängigkeit von externen Daten oder Big Data

Mit der PLCnext Technology werden Steuerungen von Phoenix Contact zu echten Edge-Devices. Ein wesentlicher Grund für die Integration von KI-Algorithmen (Künstliche Intelligenz) in lokale Anwendungen respektive Steuerungen oder Edge-Devices ist eine Optimierung direkt vor Ort, die nicht von externen Daten oder Big Data abhängig sein muss. An dieser Stelle ist vor allem wichtig, Latenzen zu verringern und zusätzlich Datenverkehr über mehrere Systemgrenzen hinweg zu vermeiden. Die Daten für KI-Entscheidungen kommen direkt von der Steuerung und belasten die Infrastruktur der Anlage nicht.

Somit lassen sich dedizierte Verbindungen in der Architektur der Anlage einsparen. Darüber hinaus kann auf eine Verbindung in die Cloud verzichtet werden. Diese ist ohnehin nicht immer möglich. Besteht allerdings die Anforderung, die Ergebnisse der KI-Berechnung ebenfalls zusätzlich an ein überlagertes Cloud-System zu versenden, ist dies mit der PLCnext Technology selbstverständlich mit geringem Aufwand umsetzbar. Die direkte Ankopplung an die Proficloud von Phoenix Contact sorgt für eine einfache Parametrierung der sicheren Verbindung zur Cloud.

Bild 2: Im Fog-Computing werden zeitkritische Aktionen so nah an den Geräten wie möglich ausgeführt – zwischen Gerät und Cloud.
Bild 2: Im Fog-Computing werden zeitkritische Aktionen so nah an den Geräten wie möglich ausgeführt – zwischen Gerät und Cloud. (Bild: Phoenix Contact)

Warum Cloud-Computing allein (oftmals) nicht reicht

Um zu verstehen, welche Vorteile das Edge- respektive Fog-Computing mit sich bringt, ergibt sich zunächst die Frage, warum nicht ein reines Cloud-System zum Einsatz kommt. Denn Cloud-Systeme haben ihre Vorzüge wie Ausfallsicherheit, mögliche Kosteneinsparung oder weltweite Verfügbarkeit bereits hinreichend bewiesen. In der Cloud sind beinahe nahezu unbegrenzte Speichermengen und Rechenkapazität vorhanden. Doch eine Herausforderung bleibt bestehen: Während die großen Rechenzentren über eine sehr gute, sprich schnelle, Netzwerkanbindungen verfügen, ist das für die im Feld installierten Geräte häufig nicht der Fall. Damit Unternehmen wirklich zu ihrem Vorteil an der Digitalisierung partizipieren können, müssen sich die häufig an entlegenen Orten montierten Komponenten ebenso an das Internet der Dinge anbinden lassen.

Bild 3: Moderne Solarparks erzeugen viele interessante Daten, nur müssen nicht alle Daten zwangsläufig an die Cloud weitergeleitet werden.
Bild 3: Moderne Solarparks erzeugen viele interessante Daten, nur müssen nicht alle Daten zwangsläufig an die Cloud weitergeleitet werden. (Bild: Phoenix Contact)

Ein Beispiel ist eine in einem Solarpark verbaute Steuerung (Bild 3). Sie sammelt zwar wertvolle Daten für den Betreiber, ist aber lediglich über eine langsame GSM-Verbindung an das Netz angeschlossen. Hier wird schnell deutlich, warum die Daten nicht sofort an ein Cloud-System übermittelt werden können: Die Bandbreite reicht dazu einfach nicht aus. In diesem Beispiel würde Edge-Computing sicherstellen, dass der Betreiber des Solarparks trotzdem sinnvoll mit den Daten der Steuerung arbeiten kann, indem er einen Teil der auszuführenden Arbeiten von der Cloud in das Gerät verlagert.

Edge- und Fog-Computing als zusätzliche Möglichkeiten

Edge- und Fog-Computing werden Cloud-Lösungen nicht verdrängen oder ersetzen. Die Computing-Ansätze dienen lediglich dazu, die bisherigen Einschränkungen bei der Verwendung einer Cloud zu umgehen. Edge-Devices sind damit in der Lage, einfache Echtzeitanalysen durchzuführen und erfasste Sensordaten nach bestimmten Kriterien vorzuselektieren, bevor sie diese an die Cloud weiterleiten. Auf diese Weise wird eine unnötige Belastung der Cloud-Verbindung verhindert. Die gewonnene (relative) Unabhängigkeit von einer Internetverbindung sowie die besonders niedrige Latenz lassen sich als weitere Argumente für die Nutzung von Edge-Devices in IoT-Projekten (Internet of Things, IoT) nennen.

Schnelle App-Entwicklung mit PLCnext

Mit der PLCnext Technology lassen sich Automatisierungsprojekte ohne die Grenzen proprietärer Systeme umsetzen. Anwender können ihre bevorzugten Programmiersprachen, Entwicklungswerkzeuge und Open-Source-Software nutzen. Cloud-Services und Zukunftstechnologien lassen sich leicht in die Plattform integrieren. Seit Ende 2018 stehen im PLCnext Store Software-Applikationen (Apps) bereit, mit denen sich die PLCnext-Steuerungen um technische Funktionen erweitern lassen. Je nach App benötigt der Anwender keine tiefen Programmierkenntnisse, um mit den Softwarelösungen seine Anwendung direkt zu erstellen. Aufgrund der Offenheit des Stores können neben Phoenix Contact auch Dritte ihre Apps zum Verkauf anbieten. Damit ist der Store nicht nur für die Nutzer der Steuerungstechnik interessant, sondern auch für Softwarehersteller. Der einfache Zugang zu Software-Applikationen und verringerter Programmieraufwand beschleunigen die Anwendungsentwicklung. Die Steuerung muss lediglich parametriert und an die individuellen Anforderungen vor Ort angepasst werden.

Bild 4: Als erste Steuerung auf Basis der PLCnext Technology verfügt der AXC F 2152 über eine integrierte Proficloud-Anbindung.
Bild 4: Als erste Steuerung auf Basis der PLCnext Technology verfügt der AXC F 2152 über eine integrierte Proficloud-Anbindung. (Bild: Phoenix Contact)

Geschäftsideen mit der Proficloud umsetzen

Die PLCnext Technology schafft einen nahtlosen Übergang von der Maschinen ebene in die Cloud. Edge-Controller – zum Beispiel der AXC F 2152 – verarbeiten Daten prozessnah in Echtzeit. Anschließend werden die aufbereiteten Daten abgesichert vor externen Zugriffen in die Proficloud übertragen. Dieser Ansatz erlaubt eine kurzfristige Anpassung, wenn sich Geschäftsprozesse im Nachhinein verändern. Die Abrechnung erfolgt nutzungsabhängig. Ferner können Anwender ihre eigene Software zur Datenerfassung, -analyse und –visualisierung auf der Plattform betreiben. Ausgewählte Daten und Informationen lassen sich zugriffssicher an weitere Teilnehmer übermitteln. Mit den Cloud-Services erweitern Nutzer ihre Applikationen um Funktionen wie Monitoring, Reporting, Energiedatenmanagement sowie Berechnungen oder eine vorausschauende Wartung.

Wie Single Pair Ethernet die Kabelinfrastruktur beeinflusst

Wie Single Pair Ethernet die Kabelinfrastruktur beeinflusst

18.03.19 - Schafft Single Pair Ethernet den Durchbruch in der Feldebene bis zum Sensor und verdrängt klassische Feldbussysteme? Welchen Einfluss nimmt Single Pair Ethernet auf Leitungen und Steckverbinder? lesen

PLCnext: Offene Plattform für simultanes Engineering

PLCnext: Offene Plattform für simultanes Engineering

25.03.19 - Als offene Steuerungsplattform ist PLCnext Technology die Basis für das simultane Engineering. Auch Hochsprachen- und modellbasierter Code wird konsistent sowie in Echtzeit abgearbeitet. lesen

* Arno Martin Fast und Robert Bieber sind Mitarbeiter im Bereich Cloud Engineering von Phoenix Contact Electronics in Bad Pyrmont

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 45892441 / IoT)