Suchen

15 Jahre Fraunhofer-Allianz Vision Die Geschichte der industriellen Bildverarbeitung

| Redakteur: Gerd Kucera

Während die Messe „Vision“ im Jahr 2012 in die 25. Runde ging, blickte die „Fraunhofer-Allianz Vision“ auf ihr 15-jähriges Bestehen zurück. Die Anfänge der Fraunhofer-Forschung in Sachen Bildverarbeitung reichen bis in die 70er Jahre.

Firma zum Thema

Der „Visionär“ und damalige Abteilungsleiter am Fraunhofer IIS, Dr. Norbert Bauer, etablierte 1997 die Fraunhofer-Allianz Vision, um die übergreifende Zusammenarbeit mehrerer Fraunhofer-Institute zu realisieren und das Wissen im Bereich des maschinellen Sehen zu bündeln
Der „Visionär“ und damalige Abteilungsleiter am Fraunhofer IIS, Dr. Norbert Bauer, etablierte 1997 die Fraunhofer-Allianz Vision, um die übergreifende Zusammenarbeit mehrerer Fraunhofer-Institute zu realisieren und das Wissen im Bereich des maschinellen Sehen zu bündeln
(Bild: Fraunhofer-Allianz Vision)

Nur wenige Branchen sind in den beiden letzten Jahrzehnten so beeindruckend gewachsen wie die industrielle Bildverarbeitung. Und ein Ende des Wachstums ist noch nicht absehbar. Ursächlich dafür ist die technologische Entwicklung in der Mikroelektronik. Ursprünglich speziell für die Bildverarbeitung entwickelte Hardwarekomponenten sind größtenteils durch leistungsfähigere Entwicklungen des PC-Massenmarktes ersetzt worden.

Damit profitiert der Markt für industrielle Bildverarbeitung erheblich vom Fortschritt der allgemeinen Rechnertechnik und kann sich dadurch immer schneller in immer mehr Nischen verbreiten. Die Ingenieursleistung der letzten Jahre und die Geschwindigkeit des Fortschritts auf diesem Gebiet werden besonders bewusst bei der Betrachtung konkreter früherer Lösungsansätze und Systeme, die einst als Meilensteine auf dem Weg zur automatischen Inspektion in der Fertigung gegolten haben.

Bildergalerie
Bildergalerie mit 6 Bildern

Die digitale Bildaufzeichnung halbiert 1974 die Datenmenge

Aus dem Jahr 1974 stammt die erste bekannte digitale Echtzeit-Bildverarbeitung (Bild 1). Mithilfe der Differenz-Pulse-Code-Modulation (DPCM) ließ sich die Datenmenge einer Videokamera um den Faktor 2 reduzieren. 1979 konnten dann derart bearbeitete Videosignale digital auf ein modifiziertes semiprofessionelles Bandspeichergerät aufgezeichnet werden. Es handelte sich um ein reines Laborsystem des Lehrstuhls »Technische Elektronik« der Friedrich-Alexander-Universität Erlangen-Nürnberg.

Die ersten Videorekorder konnten Fernsehsignale nur in analoger Form aufzeichnen. Mit einer rotierenden Kopftrommel wurde für ein Halbbild jeweils eine schräge Spur auf ein Magnetband geschrieben. Mit einer hochpräzisen Mechanik und einer ausgeklügelten Entkopplung benachbarter Spuren konnten sehr schmale Spuren ohne Abstand zueinander geschrieben werden, sodass eine bis dato unerreichte Speicherdichte möglich wurde.

Die Qualität des gespeicherten Signals war jedoch selbst bei Studiomaschinen sichtbar schlechter als das Original. Neben einer Rauschkomponente kam es durch mechanische Einflüsse zu einem zeitlichen Jitter der einzelnen Bilder, der sich durch ein leichtes Ausfransen an den seitlichen Bildrändern bemerkbar machten. Insbesondere war die Kopie einer Kopie mit einem deutlichen Qualitätsverlust behaftet.

Die Lösung der Qualitätsprobleme bei der Speicherung ist durch die Digitalisierung möglich geworden. Liegt ein Signal in digitaler Form vor, entsteht durch Speicherung und Rekonstruktion keine zusätzliche Verminderung der Qualität. Sowohl der zeitliche Jitter als auch Fehler im Übertragungsweg lassen sich ausgleichen bzw. korrigieren. Nachteilig ist allerdings der hohe Bedarf an Bandbreite des Signals.

Beträgt die Bandbreite eines Standard-Fernsehsehsignals 5 MHz, ist für die direkte digitale Übertragung ein Vielfaches erforderlich. Allerdings haben Videosignale in der Regel eine hohe Redundanz, sodass eine sehr effektive Datenreduktion möglich ist. Bei der Übertragung von Satelliten-Signalen und terrestrischen Fernsehsignalen können die verfügbaren Bandbreiten mit digitalen Signalen mittlerweile wesentlich effektiver als mit analoger Darstellung genutzt werden.

Datenreduktion durch Differenz-Pulse-Code-Modulation

Im Jahr 1974 waren die Möglichkeiten der Digitaltechnik allerdings noch begrenzt. Mit den ersten integrierten TTL-Schaltungen war an eine Videobearbeitung überhaupt noch nicht zu denken. Erst mit der Verfügbarkeit von integrierten ECL-Bausteinen konnte eine Echtzeitverarbeitung von Videosignalen erreicht werden. Die mögliche Komplexität einer Datenreduktion war allerdings stark eingeschränkt. Zur Signal-Laufzeit der ECL-Bausteine kam noch die Laufzeit der notwendigen Verdrahtung über mehrere Platinen, sodass nur einfache Algorithmen zur Reduktion realisiert werden konnten.

Die einfachste Form einer Datenreduktion besteht in einer DPCM-Darstellung. Hierbei wird nicht der korrekte Helligkeitswert eines Bildpunktes übertragen, sondern jeweils nur die Differenz zweier benachbarter Punkte. Da diese Differenz bei Videosignalen in der Regel recht klein ist, können zur Übertragung dieser Differenzen Bits eingespart werden.

Bei der Realisierung des ersten Prototyps wurden so 3 Bit pro Bildpunkt eingespart, sodass insgesamt 30 MBit pro Sekunde übertragen und gespeichert werden mussten. Der Prototyp war ausschließlich für SW-Signale ausgelegt.

(ID:30590370)