Betriebssysteme

OSADL belegt zuverlässigen Determinismus von Echtzeit-Linux

| Redakteur: Franz Graser

Die Einheitlichkeit der Latenzzeiten unter Linux (hier am Beispiel des 64-Bit AMD Athlon-Prozessors 2800+) belegt die deterministischen Eigenschaften des Linux-Echtzeitkernels. (OSADL)
Die Einheitlichkeit der Latenzzeiten unter Linux (hier am Beispiel des 64-Bit AMD Athlon-Prozessors 2800+) belegt die deterministischen Eigenschaften des Linux-Echtzeitkernels. (OSADL)

Das Open Source Automation Development Lab (OSADL) hat in einer Messreihe von über einem Jahr das Latenzverhalten des Linux-Echtzeitkernels auf diversen Hardwareplattformen ermittelt. Die Messreihe belegt eindrucksvoll die deterministischen Eigenschaften des freien Betriebssystems.

Seit über einem Jahr untersucht das OSADL auf seiner QA-Farm das Antwortverhalten verschiedener Linux-Systeme, die mit den Echtzeiterweiterungen der Real-Time-Community ausgestattet wurden. Dazu werden die Systeme jeweils zweimal am Tag gemessen. Jeder Messung liegen 100 Millionen Wake-Up-Zyklen zugrunde.

Mit Hilfe dieser insgesamt 730 Einzelmessungen pro Jahr (die wiederum 73 Milliarden Zyklen entsprechen), die sowohl die Latenzzeiten unter Ruhebedingungen sowie unter mittlerer und hoher Systemlast festhalten, konnte das OSADL belegen, dass es auf den unterschiedlichen Systemen keine Ausreißer gibt und der zuverlässige Determinismus eine generische Systemeigenschaft des Echtzeit-Linux darstellt.

Determinismus bedeutet in diesem Zusammenhang vereinfacht gesagt, dass ein System zuverlässig auf Ereignisse reagiert und dieses auch in einem exakten maximalen Zeitfenster tut. Beispielhaft wäre zum Beispiel die Anforderung an ein Industriesystem, dass asynchron einfallende Ereignisse grundsätzlich nach spätestens 200 Mikrosekunden bearbeitet werden müssen. Laut OSADL hat keines der unterschiedlichen Systeme diese Deadline jemals während eines Jahres verletzt.

Das aufwendige Messverfahren zur Feststellung des Determinismus in Linux-Echtzeitsystemen ist durch die Komplexität der heutigen Systemarchitekturen nötig geworden. Bis vor 10 bis 20 Jahren habe man zu diesem Zweck den längsten möglichen kritischen Abschnitte eines Systems gesucht und die Zahl der Prozessorzyklen ermittelt, die nötig waren, um die Instruktionen dieses Abschnitts abzuarbeiten. Angesichts der Komplexität moderner Hochleistungsprozessoren sei es aber nicht mehr möglich, die Dauer einer bestimmten Gruppe von Instruktionen zu ermitteln.

Kommentar zu diesem Artikel abgeben
Aus leidvollen Erfahrungen heraus in einem Projekt, wo es eben nicht so deterministisch war, wie...  lesen
posted am 07.04.2012 um 11:17 von osadl

Ich bin beeindruckt. Bisher war ich skeptisch bzgl. Linux und Realtime. Aus leidvollen Erfahrungen...  lesen
posted am 04.04.2012 um 12:25 von Unregistriert


Mitdiskutieren
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 32816930 / Embedded Betriebssysteme)