Das Vorurteil der Maschine – die wahre Gefahr ist nicht nachvollziehbare KI

| Autor / Redakteur: Prof. Dr. Wolfgang Einhäuser-Treyer und Prof. Dr. Alexandra Bendixen* / Sebastian Gerstl

KI kann in riesigen Datenmengen Muster erkennen, so auch im Bereich der Gesichtserkennung. Prof. Dr. Wolfgang Einhäuser-Treyer und Prof. Dr. Alexandra Bendixen plädieren für einen verantwortungsvollen Einsatz dieser Technologie.
KI kann in riesigen Datenmengen Muster erkennen, so auch im Bereich der Gesichtserkennung. Prof. Dr. Wolfgang Einhäuser-Treyer und Prof. Dr. Alexandra Bendixen plädieren für einen verantwortungsvollen Einsatz dieser Technologie. (Bild: Jacob Müller / TU Chemnitz)

Gängige Bedrohungsszenarien zur Künstlichen Intelligenz warnen vor ihren vermeintlich überlegenen Fähigkeiten. Die wahre Gefahr liege aber eher in ihrer Überschätzung und im blinden Vertrauen in die ihre nur scheinbare Objektivität, meinen Chemnitzer Professoren. Sie plädieren: KI muss nachvollziehbar sein!

Künstliche Intelligenz ist kein neues Thema. Die theoretischen und philosophischen Betrachtungen zu KI reichen bis in die Anfänge der Informatik in der Mitte des 20. Jahrhunderts zurück. Trotz erster Erfolge in den frühen 1980ern, etwa im Bereich der Handschriftenerkennung, findet KI erst heute Beachtung in der breiten Öffentlichkeit. Dabei ist der aktuelle Fortschritt der KI weniger auf grundlegend neue Konzepte zurückzuführen als vielmehr auf eine gebündelte Verfügbarkeit riesiger Datenmengen – den Big Data.

Das Versprechen: Erkennen von verborgenen Mustern und Informationen

KI kann in riesigen Datenmengen Muster erkennen: Beispielsweise lernt sie anhand unzähliger Fotos von Haustieren, die mit dem Etikett (Label) „Hund“ oder „Katze“ verknüpft sind, diese Tierarten auseinanderzuhalten. Dafür muss man der KI nicht beibringen, was einen Hund von einer Katze unterscheidet - es genügen die Fotos und deren Labels. Die KI erlernt daraus selbständig die relevanten Unterscheidungsmerkmale. Interessant wird diese selbstlernende KI dann, wenn sie Muster erkennt, die dem Menschen selbst bisher verborgen blieben. Welche Merkmale unterscheiden beispielsweise kreditwürdige von weniger kreditwürdigen Personen?

Entsprechend groß sind die Hoffnungen auf mögliche Anwendungen. Gesellschaftlich und individuell hoch bedeutsame Entscheidungen sollen der KI überlassen werden: von der Kreditvergabe über die medizinische Behandlung bis hin zur Vorhersage von potentiell gefährlichen Handlungen im öffentlichen Raum anhand von Videomaterial. Durch den scheinbar objektiven Algorithmus – so die Hoffnung – sollen „bessere“, „schnellere“ und vor allem „gerechtere“ Entscheidungen getroffen werden als bei der Beurteilung durch vermeintlich vorurteilsbehaftete Menschen.

Die unvermeidliche Schwäche: eine verzerrte Datenbasis

Das klingt zunächst vielversprechend – aber sind die Entscheidungen der KI wirklich objektiv und neutral? Das können sie nur sein, wenn die verfügbare Datenbasis keine Verzerrungen beinhaltete. Wenn eine bestimmte Katzenart in der Datenbasis viel zu selten vertreten war, kann es passieren, dass der Algorithmus solche Katzen nicht korrekt zu erkennen lernt.

Dieses Beispiel ist nicht zufällig gewählt: Ein besonders schwerer KI-Fehler genau dieser Art führte vor einigen Jahren völlig zu Recht zu einem öffentlichen Aufschrei – die automatische Bilderkennungssoftware einer großen Softwarefirma hatte ein Foto einer Gruppe von Afroamerikanern fälschlicherweise als „Gorillas“ klassifiziert. Wie kann eine derart gravierende Fehlklassifikation passieren? In der zugrundeliegenden Datenbank war die Kategorie „Mensch“ vermutlich massiv in Richtung hellhäutiger Personen verzerrt – mit anderen Worten: Es waren viel mehr Bilder hellhäutiger als dunkelhäutiger Menschen vertreten.

Dieses tragische Beispiel zeigt, wie aus der verzerrten Zusammensetzung einer Datenbank ein dramatisches Fehlurteil entstehen kann, das man einem Menschen zu Recht als schlimmste Diskriminierung vorwerfen würde.

Abwälzen von Verantwortung und Mangel an Nachvollziehbarkeit

Verzerrungen in den Datenbanken, mit denen selbstlernende Algorithmen trainiert werden, führen also im wahrsten Wortsinn zu Vorurteilen bei der Bewertung individueller Fälle. Die Problematik solcher vorurteilsbehafteten Entscheidungen wird weiter verstärkt, wenn sich die Ausführenden dieser Verzerrungen nicht bewusst sind oder die Verantwortung auf die scheinbar objektiv urteilende KI abwälzen: „Der Computer hat auf Basis Ihrer Daten entschieden, dass Sie keinen Kredit erhalten, da kann ich als Bankangestellter nichts machen.“

Man könnte gegen diese Kritik zunächst einwenden, dass auch Menschen ihren eigenen Vorurteilen unterliegen. Dieser Einwand ist zweifelsfrei berechtigt, doch kann der Mensch gezwungen werden, sich mit diesen Vorurteilen auseinanderzusetzen und Verantwortung für seine Entscheidungen zu übernehmen. Solch eine Zuschreibung von Verantwortung bleibt selbst dann möglich, wenn sich der Entscheider der Quelle seiner Vorurteile und dem Ablauf seiner Entscheidungsprozesse nicht vollumfänglich bewusst ist. Bei der selbstlernenden KI liegen die Verzerrungen – also die Vorurteile – schon in der Datenbank begründet, mit der sie trainiert wird.

Hinzu kommt, dass bei hinreichend komplexen Systemen in der Regel nicht mehr nachvollziehbar ist, auf welcher Grundlage eine Entscheidung getroffen wurde – auf welchen Merkmalen die Entscheidung also basierte und wie diese miteinander verknüpft wurden. Nachvollziehbarkeit von und Verantwortlichkeit für Entscheidungsprozesse sind aber die zentralen Voraussetzungen für die Akzeptanz von Entscheidungen und Grundlage jeder gesellschaftlichen und rechtlichen Ordnung, der solche Entscheidungen zu Grunde liegen.

Keine Korrekturmöglichkeit maschineller Vorurteile

Man könnte weiter einwenden, dass mit hinreichenden Datenmengen das Problem der Verzerrung der Datenbanken nach und nach vernachlässigbar werde. Gerade am Beispiel der Kreditwürdigkeit stellt man jedoch schnell fest, dass sich die Verzerrungen der Datenbank nicht mehr rückgängig machen lassen, sobald man beginnt, den Entscheidungen der KI zu folgen. Wenn Kredite also an bestimmte Personengruppen nicht mehr vergeben werden, so wird man auch keine Daten mehr zu der Frage sammeln, ob die Personen am Ende doch kreditwürdig gewesen wären. Die Datenbasis bleibt verzerrt; die Entscheidungen bleiben vorurteilsbehaftet. Dasselbe Problem führt übrigens auch beim Menschen in vielen Fällen zur hartnäckigen Festsetzung von Vorurteilen, die sich durch eine größere Datenbasis leicht abbauen ließen.

Inhalt des Artikels:

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 45720971 / KI/Machine Learning)