Computerprogramm schaut fünf Minuten in die Zukunft

| Redakteur: Julia Schmidt

Prof. Dr. Jürgen Gall (rechts) und Yazan Abu Farha vom Institut für Informatik der Universität Bonn haben eine Software entwickelt, die ein paar Minuten in die Zukunft blicken kann.
Prof. Dr. Jürgen Gall (rechts) und Yazan Abu Farha vom Institut für Informatik der Universität Bonn haben eine Software entwickelt, die ein paar Minuten in die Zukunft blicken kann. (Bild: Barbara Frommann/Uni Bonn)

Informatiker der Universität Bonn haben eine Software entwickelt, die ein paar Minuten in die Zukunft blicken kann: Das Programm lernt zunächst aus Videosequenzen die typische Abfolge von Aktionen, etwa beim Kochen. Basierend auf diesem Wissen kann es dann auch in neuen Situationen künftige Handlungen treffsicher vorhersagen.

Der perfekte Butler, das weiß jeder Fan britischer Gesellschaftsdramen, hat eine besondere Fähigkeit: Er ahnt die Wünsche seines Arbeitgebers, bevor dieser sie ausspricht. Die Arbeitsgruppe von Prof. Dr. Jürgen Gall möchte Computern Ähnliches beibringen: „Wir wollen Zeitpunkt und Dauer von Handlungen vorhersagen – und zwar Minuten oder sogar Stunden, bevor sie stattfinden“, erklärt er.

Ein Küchenroboter könnte dann zum Beispiel die Zutaten reichen, sobald sie gebraucht werden, rechtzeitig den Backofen vorheizen – und zwischendurch den Küchenchef warnen, wenn der einen Zubereitungsschritt zu vergessen droht. Der automatische Staubsauger wüsste derweil, dass er zu dieser Zeit in der Küche nichts zu suchen hat, und kümmert sich stattdessen ums Wohnzimmer.

Wir Menschen sind sehr gut darin, Handlungen anderer zu antizipieren. Bei Computern steckt diese Disziplin jedoch noch in den Kinderschuhen. Die Forscher am Institut für Informatik der Universität Bonn können nun aber einen ersten Erfolg vermelden: Sie haben eine selbst lernende Software entwickelt, die Zeitpunkt und Dauer künftiger Aktionen erstaunlich genau abschätzen kann – und das immerhin über Zeiträume von mehreren Minuten.

Trainingsdaten: vier Stunden Salat-Videos

Als Trainingsdaten dienten den Wissenschaftlern unter anderem 40 Videos, in denen Darsteller unterschiedliche Salate zubereiteten. Jede der Aufzeichnungen war rund 6 Minuten lang und enthielt im Schnitt 20 verschiedene Aktionen. Die Videos enthielten zudem genaue Angaben, zu welcher Zeit welche Aktion startete und wie lang sie dauerte.

Der Rechner „schaute“ sich diese insgesamt rund vier Stunden Salat-Videos an. Der Algorithmus erlernte so, welche Aktionen bei dieser Aufgabe typischerweise aufeinander folgen und wie lange diese dauern. Das ist beileibe nicht trivial: Schließlich hat jeder Koch seine individuelle Vorgehensweise. Außerdem kann die Abfolge je nach Rezept variieren.

„Danach haben wir getestet, wie erfolgreich der Lernvorgang war“, erklärt Gall. „Dazu haben wir die Software mit Videos konfrontiert, die sie zuvor noch nicht gesehen hatte.“ Immerhin passten die neuen Kurzfilme in den Kontext: Auch sie zeigten die Zubereitung eines Salats. Für den Test wurde dem Computer mitgeteilt, was in den ersten 20 oder 30 Prozent eines dieser neuen Videos zu sehen war. Auf dieser Basis musste er dann vorhersagen, was im restlichen Film passieren würde.

Das klappte erstaunlich gut. Gall: „Die Genauigkeit lag für kurze Prognose-Zeiträume bei über 40 Prozent, sank dann aber umso mehr ab, je weiter der Algorithmus in die Zukunft blicken musste.“ Bei Handlungen, die mehr als drei Minuten in der Zukunft lagen, lag der Rechner noch in 15 Prozent der Fälle richtig. Allerdings galt die Prognose auch nur dann als korrekt, wenn sowohl die Aktion als auch ihr Zeitpunkt richtig vorhergesagt wurde.

Gall und seine Mitarbeiter wollen die Studie nur als einen ersten Schritt in das neue Gebiet der Handlungsvorhersage verstanden wissen. Zumal der Algorithmus spürbar schlechter abschneidet, wenn er selber erkennen muss, was sich im ersten Teil des Videos abspielt, und das nicht gesagt bekommt. Denn diese Analyse ist nie zu 100 Prozent korrekt – Gall spricht von „verrauschten“ Daten. „Unser Verfahren funktioniert damit zwar auch“, sagt er. „Aber leider noch längst nicht so gut.“

IoT trifft KI: Aktuelle Projekte, Use Cases und Trends

IoT trifft KI: Aktuelle Projekte, Use Cases und Trends

05.06.18 - Neben Blockchain und Bitcoin sorgt Künstliche Intelligenz für reichlich Diskussionsstoff in der Digitalszene. Die wirtschaftliche Bedeutung der Technologie ist enorm. Wir zeigen, was möglich ist und woran aktuell geforscht wird. lesen

KI-Definition: 6 Fachbegriffe der Künstlichen Intelligenz erklärt

KI-Definition: 6 Fachbegriffe der Künstlichen Intelligenz erklärt

22.05.18 - Deep Learning, Inferenz, Neuronale Netze – diese Begriffe tauchen ständig auf, wenn über Künstliche Intelligenz gesprochen wird. Doch was bedeuten diese Begrifflichkeiten genau? lesen

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45352654 / KI/Machine Learning)