Big Data und Deep Learning

So spürt Deep Learning Datenmuster auf

| Autor / Redakteur: Michael Matzer / Nico Litzel

Im großen Feld von Artificial Intelligence (AI) bildet Deep Learning eine Unterdisziplin von Machine Learning.
Im großen Feld von Artificial Intelligence (AI) bildet Deep Learning eine Unterdisziplin von Machine Learning. (Bild: Intel)

Die Zunahme an unstrukturierten Daten wie etwa Bildern, Blogs und Sprachbotschaften macht es ratsam, diese Massendaten automatisch erkennen zu lassen. Deep Learning, ein Unterbereich des Machine Learning, hilft bei der Erkennung dieser Daten und findet Muster in natürlicher Sprache, in Bildern und vielem mehr.

Heute „sehen“ und „sprechen“ Computersysteme fast wie Menschen. Die Leistung wird vor allem durch die Rechner-Performance begrenzt. Da es immer mehr Menschen, Organisationen und Rechnersysteme gibt, die miteinander kommunizieren, reicht es längst nicht mehr aus, Menschen in die Erkennung solcher Mitteilungen und Botschaften einzubinden. Die Informationen müssen maschinell verarbeitet werden.

Im Jahre 1965 begannen die ersten Forscher damit, Maschinen beizubringen, Handschriften auf Postkarten und Briefen zu erkennen. Schnell tauchte das Problem der Genauigkeit und Treffsicherheit dieser „Optical Character Recognition“ (OCR) auf. Was heute auf fast jedem Tablet-PC zur Verfügung steht, bedeutete vor rund 50 Jahren einen erheblichen Aufwand an Rechenleistung, an intelligenten Algorithmen und vor allem an Methoden. Die erste Lösung lautete: Die Systeme müssen selbst lernen und sich selbst optimieren. Das war die Geburtsstunde des Deep Learning.

Einsatzbereiche

Diese fünf Use Cases von Deep Learning sind bereits realisiert, so etwa autonomes Fahren.
Diese fünf Use Cases von Deep Learning sind bereits realisiert, so etwa autonomes Fahren. (Bild: Intel)

Heute sehen wir durch die gewaltigen Fortschritte an Rechenleistung, wie groß die Vorteile sind, die Deep Learning (DL) mit sich bringen kann. Autos können heute autonom fahren, weil sie ihre Umgebung rasend schnell erkennen und interpretieren. Google Voice verleiht jedem PC und Smartphone die Fähigkeit, Spracheingaben in unzähligen Sprachen zu erkennen – nicht nur die natürliche Sprache, sondern auch die Ausdrucksweise eines individuellen Sprechers. Das ist im Chinesischen, in dem die Bedeutung eines Ausdrucks mit der Tonhöhe wechselt, von besonderer Bedeutung. DL-Systeme erkennen inzwischen Gesichter, Gesichtsausdrücke und sogar Gefühlsausdrücke, also das Mienenspiel eines Menschen. Affektives Computing, wie die Gartner Group es nennt, ist beinahe schon marktreif.

Die Zahl der Anwendungsgebiete ist schier unendlich und reicht von der Betrugserkennung über Fahndungsmethoden bis hin zur Medizin und dem Transportwesen. DL-Algorithmen interpretieren nicht nur durch ihr selbstoptimierendes Lernen, sie geben zunehmend auch Handlungs- und Entscheidungsempfehlungen. Die ultimative Prüfung für jedes DL-System ist der nach Alan Turing benannte Turing-Test: Gemessen wird, wie gut es einem rechnergestützten System gelingt, einen Menschen nachzuahmen. Wenn der Rechner nicht von einem Menschen (Verhalten, Ausdruck, Wahrnehmung usw.) zu unterscheiden ist, dann gilt der Test als bestanden.

Herausforderungen

Von perfekten Künstlichen Intelligenzen (KI) à la HAL 9000 in Stanley Kubricks Filmklassiker „2001 – Odyssee im Weltraum“ sind die heutigen Systeme noch weit entfernt. Das Gehirn verfügt durchschnittlich über 100 Milliarden Nervenzellen, der größte heutige Rechencluster bringt es nur auf eine Milliarde Knoten. Nicht nur das. Greg Diamos, leitender Forscher im AI Labor im Silicon Valley von Baidu, sagte in einem Interview und auf der International Supercomputing Conference 2016 in Frankfurt/Main: „Der Unterschied zwischen der nachhaltigen Rechenleistung des schnellsten RNN-Trainingssystems (Rekursives Neuronales Netzwerk), das wir bei Baidu kennen, und der theoretischen Spitzenleistung des schnellsten Computers der Welt liegt annähernd beim Faktor 2.500.“

Diamos spricht von Trainingssystemen und RNNs, also rekursiven Neuronalen Netzwerken. Sie sind die am meisten verbreiteten Grundlagen von Deep Learning. Es gibt andere Methoden, so etwa symbolische Verfahren im Text Mining, einer Disziplin des maschinellen Lernens. Aber DL hat durch Artificial Neural Networks (ANN) seit 2006 einen großen Aufschwung erlebt und wird seit 2016 massiv von Intel, IBM und anderen Schwergewichten unterstützt. Aus einem esoterischen Forschungszweig wird endlich eine Volksindustrie.

Inhalt des Artikels:

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44443137 / Software Engineering)