„Elon Musk hat Unrecht: Die KI-Singularität wird uns nicht alle umbringen.“

| Autor / Redakteur: Toby Walsh* / Martina Annuscheit

Toby Walsh, University of New South Wales: "KI muss reguliert werden, denn die großen Technologieunternehmen haben inzwischen zu viel Macht."
Toby Walsh, University of New South Wales: "KI muss reguliert werden, denn die großen Technologieunternehmen haben inzwischen zu viel Macht." (Bild: Grant Turner/UNSW)

Elon Musk hat wiederholt Ängste vor der Bedrohung durch eine Killer-KI geschürt. Doch er schieße völlig am Ziel vorbei, meint Professor Toby Walsh.

Fast überall liest man Beiträge,in denen Elon Musk vorhersagt, dass die Künstliche Intelligenz (KI) einer Regulierung bedarf, da es sonst zu einem Dritten Weltkrieg kommt. Und wenn es mal nicht Elon tut, dann verkündet Vladimir [Putin], dass KI die Weltherrschaft übernehmen wird.

Allmählich bekomme ich das Gefühl, dass ich wirklich gefährlich bin. Immerhin bin ich Professor für Künstliche Intelligenz. Wenn ich vor gut 20 Jahren erzählt habe, dass ich an intelligenten Maschinen arbeite, haben mich die Leute einfach belächelt, und ich wusste, das Lächeln war mitfühlend. Damals war KI einfach eine aussichtslose Angelegenheit. Heute jedoch macht die KI allmählich Fortschritte, und die Menschen fürchten sich offenbar vor dem nächsten „Ding“, das die KI-Labore hervorbringen werden.

Regulierung ist nötig – aber aus anderen Gründen

In einem hat Elon tatsächlich Recht: KI braucht Regulierung. Doch mit einer Sache liegt er ganz sicher falsch – die KI wird in absehbarer Zukunft nicht den Dritten Weltkrieg einläuten. Oder die Weltherrschaft an sich reißen. Oder zum Ende der Menschheit führen. KI muss reguliert werden, denn die großen Technologieunternehmen haben inzwischen zu viel Macht. Und wie bei jedem anderen Industriezweig, der zu mächtig wurde – Banken, Ölgesellschaften, Telekommunikationsunternehmen – muss das Gemeinwohl durch Regulierung geschützt werden. Es muss sichergestellt sein, dass wir alle Nutznießer sind und nicht nur die Tech-Elite.

Nach und nach wird deutlich, wie z.B. Facebook-Algorithmen den politischen Dialog beeinflussen oder wie negativ sich die Dominanz von Amazon auf den Einzelhandel oder das Monopol von Google auf die Internetsuche auswirkt. Wo man bei einem Unternehmen wie Uber anfangen soll, weiß man gar nicht erst – es gibt einfach so viele Kritikpunkte.

Doch die Probleme von heute werden nicht von einer superintelligenten, sondern von einer dummen KI verursacht. Wir lassen zu, dass Algorithmen Entscheidungen treffen, die unsere Gesellschaft beeinflussen. Und diese Algorithmen sind nicht unbedingt intelligent. Joshua Brown musste dies im vergangenen Jahr am eigenen Leib erfahren. Er ist der erste, der durch ein selbstfahrendes Auto ums Leben kam. Ein intelligenteres Auto hätte den vor ihm abbiegenden Lkw vielleicht erkannt und ihm so das Leben retten können.

Viel spricht dagegen, dass es jemals zu einer Singularität kommt

Der Gedanke, der Menschen wie Elon umtreibt, ist gleichzeitig verführerisch und gefährlich: die technologische Singularität. Irgendwann werden wir Maschinen bauen, die intelligent genug sind, sich selbst noch intelligenter zu machen. Und diese intelligenteren Maschinen werden sich dann immer weiter verbessern. Der Wendepunkt wird erreicht sein, wenn die Intelligenz von Maschinen sich exponentiell steigert. Ehe wir uns versehen, sind wir dann nicht mehr das intelligenteste Lebewesen unseres Planeten. Und wenn wir nicht aufpassen, übernehmen diese Maschinen dank ihrer überlegenen Intelligenz die Welt. Genauso, wie wir unsere Intelligenz einst dazu genutzt haben, um die Erde von den Affen, Delfinen und Dinosauriern zu übernehmen.

Zur Singularität sollte man jedenfalls wissen, dass die Anhänger dieses Gedankens zumeist nicht im Bereich der künstlichen Intelligenz tätig sind, wie beispielsweise der Philosoph Nick Bostrom und der Futurist und Erfinder Ray Kurzweil. Die meisten Leute, die wie ich mit KI arbeiten, stehen dem Gedanken an die Singularität mit einer gesunden Portion Skepsis gegenüber. Wir wissen, wie schwierig es ist, einer Maschine auch nur ein Mindestmaß an Intelligenz einzutrichtern, geschweige denn eine rekursive Selbstverbesserung zu erreichen.

Viele technische Faktoren sprechen dagegen, dass es jemals zu dieser Singularität kommen wird. Vielleicht stoßen wir schlicht an grundlegende Grenzen. Jeder andere Bereich der Wissenschaft hat solche Grenzen. So kann sich z.B. nichts schneller fortbewegen als das Licht. Womöglich gibt es auch grundlegende Grenzen für das Maß an Intelligenz? Vielleicht stoßen wir aber auch an Grenzen des Engineering. Wussten Sie, dass das Moore’sche Gesetz offiziell nicht mehr gilt? Intel versucht heute nicht mehr, alle 18 Monate die Transistoranzahl zu verdoppeln. Aber auch wenn diese Singularität eintreten sollte, haben Maschinen trotz allem kein Bewusstsein, keine Empfindungen. Sie haben nur die Wünsche oder Ziele, die wir ihnen geben.

Weltherrschaft gehört nicht zum Code einer KI

Es wird nicht so sein, dass AlphaGo morgen erwacht und beschließt, lieber ein bisschen Geld beim Poker zu gewinnen, weil der Mensch sowieso nicht gut Go spielen kann. Und ganz bestimmt wird es nicht erwachen und beschließen, die Welt zu übernehmen. Das ist nicht in seinem Code. Das einzige, was AlphaGo jemals tun wird, ist, eine Zahl maximieren – und zwar die Bewertung der Wahrscheinlichkeit, dass es die aktuelle Go-Partie gewinnen wird. Es weiß ja noch nicht einmal, dass es Go spielt.

Wir müssen also keine Angst haben, dass Maschinen demnächst die Herrschaft an sich reißen. Aber wir sollten uns Gedanken darüber machen, wie sehr sogar eine dumme KI unser Leben beeinträchtigen kann. Sie wird zu noch mehr Ungleichheit führen. Viele Menschen werden ihre Arbeit verlieren. Der politische Dialog wird vergiftet. Selbst mit dummer KI kann das Militär noch grausamere Kriege führen.

Elon, zerbrechen Sie sich nicht mehr Kopf über einen Dritten Weltkrieg. Denken Sie lieber darüber nach, was selbstfahrende Teslas für die Existenzgrundlage von Taxifahrern bedeuten.

Übrigens stehe ich mit meiner Meinung nicht alleine. Eine kürzlich unter 50 Nobelpreisträgern durchgeführte Umfrage ergab, dass Klima, Bevölkerungswachstum, Atomkrieg, Krankheiten, Selbstsucht, Ignoranz, Terrorismus, Fundamentalismus und Trump als Bedrohung für die Menschheit noch vor der KI rangieren.

Wenn Künstliche Intelligenz zur Waffe wird

Wenn Künstliche Intelligenz zur Waffe wird

17.04.18 - Elon Musk, Steve Wozniak und Stephen Hawking haben mehrfach vor den Gefahren des Missbrauchs Künstlicher Intelligenz gewarnt. Doch in welcher Form kann KI schon heute zur Waffe werden? Ein Kommentar von Georgeta Toth, Regional Director DACH bei Radware. lesen

Stephen Hawking warnt vor KI als „schlimmstes Ereignis der Zivilisationsgeschichte“

Stephen Hawking warnt vor KI als „schlimmstes Ereignis der Zivilisationsgeschichte“

09.11.17 - Stephen Hawking hat sich im Rahmen einer Technologiekonferenz in Lissabon, Portugal, kritisch zur Entwicklung von oder Experimenten mit künstlicher Intelligenz geäußert. Eine Kontrolle über künstliche Intelligenzen müsse unbedingt aufrechterhalten werden, sagte der Physiker. Denn nur so könne die Menschheit am Leben erhalten werden. lesen

Übersetzung: Sabine Pagler

* Toby Walsh ist Professor für Künstliche Intelligenz an der University of New South Wales in Sydney, Gastprofessor an der TU Berlin und Verfasser von „Android Dreams: The Past, Present and Future of AI“ (https://www.cse.unsw.edu.au/~tw/)

Kommentar zu diesem Artikel abgeben
In Fachkreisen heißt das Beweis durch Diagonalisierung. Ähnlich können Sie etwa beweisen, dass 1)...  lesen
posted am 19.07.2018 um 13:51 von Unregistriert

Wieso er nicht in der Lage ist, sich vorzustellen, dass die KI gar nicht die Macht an sich reissen...  lesen
posted am 19.07.2018 um 13:43 von Unregistriert

Ich gehe davon aus, das dieser Kommentar von einer KI geschrieben wurde, welches das geistigine...  lesen
posted am 19.07.2018 um 12:31 von Unregistriert

Als Professor für künstiliche Intelligenz sollte Hr. Walsh wissen, dass Joshua Brown nicht in...  lesen
posted am 17.07.2018 um 10:43 von Unregistriert


Mitdiskutieren
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 45401059 / KI/Machine Learning)