Das Vorurteil der Maschine – die wahre Gefahr ist nicht nachvollziehbare KI

| Autor / Redakteur: Prof. Dr. Wolfgang Einhäuser-Treyer und Prof. Dr. Alexandra Bendixen* / Sebastian Gerstl

Die wahre Chance von KI: Vernetzung großer Datenmengen unter Verantwortung des Menschen

Bilder einer Computertomographie: Gerade in der Medizintechnik eröffnet künstliche Intelligenz vielversprechende Möglichkeiten, beispielsweise bei der Bilderkennung von Tumorzellen.
Bilder einer Computertomographie: Gerade in der Medizintechnik eröffnet künstliche Intelligenz vielversprechende Möglichkeiten, beispielsweise bei der Bilderkennung von Tumorzellen. (Bild: gemeinfrei / CC0)

Die bisherigen Ausführungen sollen keinesfalls bedeuten, dass der Einsatz von selbstlernender KI immer von Nachteil sein muss. Im Gegenteil – es gibt Bereiche, in denen das Erkennen von Zusammenhängen in großen Datenbanken für den Einzelnen gewaltige Vorteile mit sich bringen kann.

So kann ein Patient mit einer seltenen Symptomatik sehr davon profitieren, nicht nur auf die Erfahrung einer einzelnen Ärztin oder eines einzelnen Arztes zugreifen zu können, sondern auf den gewichteten Erfahrungsschatz der gesamten Ärzteschaft. Im besten Fall ergeben sich durch die KI neue Ideen zur Einordnung der Symptome und zur geeigneten Behandlung. Bevor Therapieentscheidungen für die einzelne Person abgeleitet werden, muss aber auch hier wieder das Risiko von Verzerrungen der Datenbasis bedacht werden.

Die zentrale Herausforderung: Nachvollziehbarkeit

Wie können die Vorteile selbstlernender KI-Systeme für die Gesellschaft und für den Einzelnen genutzt werden, ohne sich die erwähnten Nachteile einzuhandeln? Auf der Seite der Forschenden an selbstlernenden Systemen und auf Seiten der Öffentlichkeit ist das Bewusstsein für die unvermeidlichen Verzerrungen von Datenbanken zu schärfen. Scheinbar objektive Algorithmen unterliegen genau wie Menschen „Vorurteilen“, deren Quellen häufig schwer nachzuvollziehen sind. Das Abwälzen der Verantwortung für Entscheidungen auf ein KI-System ist daher nicht hinnehmbar.

Gleichzeitig sind Verfahren weiter voranzutreiben, die Entscheidungsprozesse in KI-Systemen nachvollziehbar machen. Die Nachvollziehbarkeit von Datenverarbeitungs- und Entscheidungsprozessen ist die Grundvoraussetzung dafür, dass der Einzelne den Umgang mit seinen Daten einordnen und somit sein Recht auf informationelle Selbstbestimmung effektiv ausüben kann.

Die Rolle der Schulen und Hochschulen: Verantwortlichkeit lehren und leben

Nachvollziehbare KI wird nicht zuletzt von der Wechselwirkung mit denjenigen Disziplinen profitieren, die sich seit jeher mit der Vorurteilsbehaftung von Entscheidungen befassen – der Psychologie, den Kognitionswissenschaften sowie Teilen der Wirtschaftswissenschaften. Schulen und Hochschulen müssen sich der Herausforderung stellen, eine umfassende Betrachtung von KI-Systemen zu vermitteln. In den technischen und informationstechnischen Disziplinen erfordert dies eine Diskussion der gesellschaftlichen Konsequenzen verzerrter Daten, in den human- und sozialwissenschaftlichen Disziplinen eine Schärfung des nötigen Technikverständnisses.

Eine solide Bildung in den menschlichen, gesellschaftlichen und technischen Aspekten selbstlernender informationsverarbeitender Systeme bildet die beste Voraussetzung, die Chancen und Risiken von KI einzuordnen, entsprechende Systeme mitzugestalten und ihren verantwortungsvollen Einsatz sicherzustellen.

Die Autoren

* Wolfgang Einhäuser-Treyer studierte Physik in Heidelberg und Zürich. Nach Promotion an der ETH Zürich im Gebiet Neuroinformatik, Postdoktorandentätigkeit am California Institute of Technology und wiederum der ETH u. a. zum Thema maschinelles Lernen sowie einer Juniorprofessur für Neurophysik an der Universität Marburg ist er seit 2015 Professor für die Physik kognitiver Prozesse an der TU Chemnitz.

* Alexandra Bendixen studierte Psychologie in Leipzig und Grenoble und promovierte an der Universität Leipzig im Bereich der Kognitions- und Neurowissenschaften. Nach einer Forschungstätigkeit an der Ungarischen Akademie der Wissenschaften in Budapest, Habilitation an der Universität Leipzig sowie einer Juniorprofessur für Psychophysiologie des Hörens an der Carl-von-Ossietzky-Universität Oldenburg ist sie seit 2015 Professorin für Struktur und Funktion kognitiver Systeme an der TU Chemnitz.

Künstliche Intelligenz in der Medizintechnik

Künstliche Intelligenz in der Medizintechnik

22.10.18 - Wie kann Künstliche Intelligenz die Arbeit des Mediziners verbessern und die Qualität der Diagnostik steigern? Im Rahmen einer Fachtagung beleuchteten Mediziner und Informatiker das Trendthema und zeigten praktische Beispiele aus der Anwendung. lesen

Amazons Personal-KI diskriminierte Frauen

Amazons Personal-KI diskriminierte Frauen

11.10.18 - Seit 2014 hatte Amazon ein KI-Projekt zum Anwerben neuer Mitarbeiter in der Entwicklung. Das Problem: Die Künstliche Intelligenz brachte sich selber bei, Frauen anhand von Schlüsselwörtern gegenüber Männern zu benachteiligen. lesen

Künstliche Intelligenz: Mehr Schein als Sein?

Künstliche Intelligenz: Mehr Schein als Sein?

09.10.18 - Um Künstliche Intelligenz gibt es viel Hype, doch sind bei der Anwendung noch keine großen Fortschritte zu verzeichnen. Warum das so ist und wie man Unternehmen den Einstieg in die KI erleichtern kann, erläutert Richard Rovner, Vice President of Marketing von MathWorks, im Gespräch mit "Industry of Things". lesen

Der verkannte Kontinent: „Wir müssen bei KI auf den Stärken Europas aufbauen“

Der verkannte Kontinent: „Wir müssen bei KI auf den Stärken Europas aufbauen“

30.11.18 - Der internationale Wettlauf um die Vorreiterrolle bei KI-Technologien hat begonnen. Welche Trümpfe hält Europa in der Hand? Über Chancen und Perspektiven sowie die Interaktion zwischen KI und Softwaretechnik spricht der Experte Holger H. Hoos in einem kostenlos zugänglichen Internet-Livestream am 5. Dezember. lesen

Inhalt des Artikels:

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 45720971 / KI/Machine Learning)