Haben Ihre KI-Bots Vorurteile? Rechenschaftspflicht kann Abhilfe schaffen. (KI-Ethik, Teil 3)

Joanna Bryson, KI-Expertin und Informatikerin an der britischen University of Bath.

(Dies ist die letzte Episode aus unserer dreiteiligen Serie zum Thema künstliche Intelligenz mit der Informatikerin Joanna Bryson [@j2bryson]. Sie ist laut Cognilytica eine der Top-50-Einflusspersonen im Bereich KI, denen man auf Twitter folgen sollte.) Lesen Sie den zweiten Teil hier.

In den letzten beiden Ausgaben räumte Bryson mit einigen Mythen rund um die Regulierung der KI auf und erläuterte die Bedeutung der Sorgfaltspflicht bei der Softwareentwicklung.

Zum krönenden Abschluss geht Bryson in diesem Teil noch einmal darauf ein, wie schwierig es ist, Vorurteile in der KI auszuräumen, warum Maschinen nicht die Welt erobern werden und worin das Geheimnis für den Erfolg der KI liegt.

Viel Spaß beim Lesen.

Appian: Sie haben gesagt, dass ein Unternehmen Ihrer Meinung nach die Einhaltung seiner Sorgfaltspflicht nicht belegen kann, wenn es einfach nur nach dem Prinzip „Augen zu und durch“ drauf los entwickelt und später etwas mit der Software nicht klappt. Was sollten Unternehmen und IT-Führungskräfte daraus mitnehmen?

Bryson: Egal in welcher Branche Sie arbeiten – Sie sollten in der Lage sein zu belegen, dass Sie bei der Softwareentwicklung und auch beim Einsatz von maschinellem Lernen sorgfältig vorgegangen sind.

Wenn Sie Chef einer Bank sind und ein buchhalterisches Problem haben, schauen Sie nicht auf die Synapsen im Gehirn Ihres Buchhalters. Stattdessen fragen Sie sich: „Wurde bei der Buchhaltung alles richtig gemacht?“Dasselbe gilt meiner Meinung nach für maschinelles Lernen: Diese Daten habe ich verwendet. So lief das Training ab. Diese Best Practices habe ich berücksichtigt. So können Sie Risiken minimieren und sich selbst schützen.

Wir brauchen keine neuen Regulierungen für KI

Appian: Das bringt uns zurück zur Frage der Regulierung von KI.

Bryson: Wenn wir es schaffen, den Unternehmen zu vermitteln, dass das von ihnen erwartet wird, dass das die Normalität ist … dann brauchen wir im Vereinigten Königreich meiner Meinung nach keine neuen Vorschriften. Wir müssen nur dafür sorgen, dass allen klar ist, wie die bestehenden gesetzlichen Vorgaben auf die Softwarebrache angewendet werden können.

Appian: Denken Sie also, dass der europäische Ansatz der DSGVO (Datenschutz-Grundverordnung) ein Vorbild ist, dem wir folgen sollten?

Bryson: Nichts ist perfekt, aber ich denke dass die DSGVO im Hinblick auf KI-Strategien in die richtige Richtung weist. Verbesserungen sind immer möglich. Aber wenn wir schon nichts verbessern, sollten wir sie wenigstens umsetzen (lacht).

Es ist komisch, da sich in Europa alle fragen: „Warum haben wir keine Unternehmen wie Facebook, warum haben wir kein Google, warum haben wir nicht so große Firmen in Europa?“ … dass es in den USA diese unglaublich mächtigen Unternehmen gibt, heißt nicht unbedingt, dass da etwas besser läuft.

Die Frage ist, ob es wünschenswert ist, dass so viel Geld, Macht oder Wissen bei nur einem großen Unternehmen liegen?

Ich glaube, das ist einer der Hauptgründe, warum Microsoft ethische Fragen der KI so ernst nimmt. Sie haben das Kartelldrama schon hinter sich. Sie sind sich dessen bewusst, welche möglichen Haftungsfragen KI mit sich bringt. Und sie freuen sich darauf, in Governance-Fragen der reife Erwachsene unter den Halbstarken zu sein – und vielleicht sind sie das schon.

Digitale Führungskräfte priorisieren KI-Governance

Appian: Bewegen sich also einige der Tech-Riesen in Sachen KI und Governance in die richtige Richtung?

Bryson: Vor fünf Jahren hätte ich das noch nicht gesagt. Aber in den letzten anderthalb Jahren haben sie (Microsoft und Google) einige interessante Schritte unternommen.

Appian: Kommen wir zu einem anderen aktuellen Thema – Vorurteile von Algorithmen. Gibt es sie oder ist das nur ein Mythos?

Bryson: Bei maschinellem Lernen können genau dieselben Vorurteile vorkommen, die Psychologen beim Menschen implizite Vorurteile nennen.

Appian: Könnten Sie dafür ein Beispiel nennen?

Bryson: Relativ gesehen, werden die Namen von Frauen stärker mit eher häuslichen Begriffen assoziiert. Männernamen werden hingegen eher mit karriereorientierten Begriffen in Verbindung gebracht. Das ist ein Test für implizite Assoziationen, den Psychologen durchgeführt haben.

Das ist ein gutes Beispiel dafür, wie Vorurteile, die wir bereits haben, beim Training von KI durch maschinelles Lernen verankert werden. Das ist jedoch nur einer von drei Wegen, auf denen Vorurteile in der KI zum Tragen kommen können.

Umbrüche durch KI

Appian: Wie besorgniserregend sind Vorurteile bei KI?

Bryson: Ich bin sehr besorgt darüber. Eine meiner Lieblingsgeschichten über Vorurteile von KI ist der Seifenspender, der nur Seife abgibt, wenn du eine bestimmte Hautfarbe hast. [Nachrichtenberichten zufolge waren die Infrarotsensoren nicht darauf ausgelegt, dunklere Hauttöne zu erkennen.] Deshalb haben Menschen in Südasien schließlich Toilettenpapier verwendet, um Seife aus dem Seifenspender zu bekommen.

Mit anderen Worten: Keine der Testpersonen kam aus Asien. Sie waren alle extrem weiß (lacht).

Das ist total verrückt. Aber diese Arten von Vorurteilen sind am leichtesten zu beheben. Das ist genau genommen einer der Vorteile bei KI.

Bei Menschen ist es schwerer zu sagen, was hinter impliziten Vorurteilen steckt. Bei KI kannst du hingegen einfach schauen, was wahrgenommen wurde und warum die KI so reagiert hat, wie sie reagiert hat, wenn z. B. ein selbstfahrendes Auto einen Unfall verursacht.

Appian: Befürchten Sie, dass Vorurteile bewusst in KI integriert werden könnten?

Bryson: … Genau diese (Art von Vorurteilen der KI) ist es meiner Meinung nach, die bei Menschen nicht vorkommt: der bewusste Einsatz von Vorurteilen im Prozess. Es geht nicht darum, dass der Algorithmus böse ist. Es geht darum, dass jemand auf die Idee kommen könnte zu sagen: „Ich wurde gerade gewählt und will jetzt Steuern kürzen. Und alle, die nicht für mich gewählt haben, werden nun dafür zahlen.“

Einschnitte bei Leistungen durch fehlerhaften Algorithmus

Es gab einen absurden Fall in Idaho: Der Bundesstaat hat einen Algorithmus zur Berechnung von Leistungen bei Erwerbsunfähigkeit entwickelt. Durch die Formel sanken die Leistungen jedoch plötzlich für viele Personen – bei manchen um bis zu 42 %. Als sich die Leistungsempfänger beschwerten, weigerte sich der Bundesstaat, die Formel offenzulegen, da es sich um geistiges Eigentum handle.

Appian: Was ist dann passiert?

Bryson: Die Bürgerrechtsunion ACLU (American Civil Liberties Union) hat sich der Sache angenommen und in einem rechtsstaatlichen Verfahren durchgesetzt, dass der Bundesstaat die Formel offenlegen musste, die der Berechnung zugrunde lag. Und es war schlicht und einfach Pfusch. Ähnliches ist bei Programmen zur Rückfälligkeit zu beobachten.

Einige Richter nutzen KI-Software, mit der berechnet werden kann, wie wahrscheinlich es ist, dass eine Person erneut straffällig wird. Die dahinterstehende Software ist schlechter als das, was jeder Wissenschaftler leisten kann. Wir verstehen nicht, wie sie eine so schlechte Vorhersage treffen können.

Man muss sich also fragen, was da schief läuft. Können die wirklich so schlecht programmieren? Oder werden hier bewusst Vorurteile programmiert?

Genau aus dem Grund habe ich vorhin gesagt, dass die Rechenschaftspflicht das Wichtigste [bei der KI] ist. Wir können nur feststellen, ob Vorurteile bewusst eingebaut wurden oder ob es sich nur um einen Fehler handelt, wenn der Rechenschaftspflicht nachgekommen und alles entsprechend dokumentiert wird.

KI wird die Welt nicht erobern

Appian: Gehen wir einmal einen Schritt weiter. Wir haben in Sachen intelligenter Automatisierung enorme Fortschritte zu verzeichnen. Wir sind an einem Punkt angelangt, an dem Maschinen intelligente Algorithmen verwenden, um menschliches Verhalten nachzuahmen. Doch sind sie deshalb intelligent?

Bryson: In meinen Augen ist ein Thermostat intelligent. Was bringt es, wenn Sie Intelligenz als etwas Menschliches definieren? Es gibt viele verschiedene Arten von Intelligenz. Was die Menschen aber wirklich interessiert, ist moralische Handlungsfähigkeit und moralische Passivität.

Appian: Moralische Handlungsfähigkeit? Moralische Passivität? Was bedeutet das?

Bryson: Moralische Handlungsfähigkeit bezieht sich darauf, wer oder was dafür verantwortlich ist, wie ein Akteur handelt. Moralische Passivität bezieht sich darauf, für „wen“ oder „was“ eine Gesellschaft verantwortlich ist.

Da wir schon dabei sind – die Menschen interessieren sich am meisten für die folgenden beiden Fragen:

  • Wird KI so sein wie wir?
  • Müssen wir befürchten, dass KI die Welt erobert?

Appian: Stehen wir also vor einer KI-Apokalypse? Wird KI die Welt erobern?

Bryson: Ich glaube nicht, dass eine Maschine die Welt erobern kann. Die Welt ist doch ziemlich groß. Gemeinsam schafft es die Menschheit aber doch recht gut, das gesamte Ökosystem zu beherrschen.

Wir sind es, die die Gesellschaft durch den Einsatz von KI verändern. Welche Regulierungen sollten wir hier also vornehmen? Welche Gesetzesänderungen sind vor dem Hintergrund von Big Data und dem umfassenden Wissen über die Menschen notwendig, um sie zu schützen?

Verstärkte Fragmentierung durch die Zunahme von KI

Appian: Trotz der Fortschritte, die Sie angesprochen haben, reden Zweifler KI nach wie vor klein und behaupten, es handle sich nur um einen Hype und Science-Fiction-Fantasien. Einige Kritiker sagen, dass wir nur von fortschrittlicherem maschinellem Lernen und erweiterter Intelligenz sprechen können, nicht aber von wahrer KI. Was sagen Sie dazu?

Bryson: Wenn Sie damit nur sagen wollen, dass KI nicht aussieht, wie ein Mensch, dann ist das auch etwas, wohin wir nicht kommen werden. Nichts, was man aus Silizium und Drähten herstellt, wird auch nur das phänomenologische Bewusstsein einer Ratte haben. Und wir vergiften Ratten.

Eines der Probleme, das uns bei der Entwicklung von KI begegnet, ist Fragmentierung. Stellen Sie sich vor, wie es unsere Gemeinschaften verändern würde, wenn alle rauskommen und miteinander reden würden. Das Problem der Fragmentierung ist durch die Kommunikationstechnologien entstanden. Und das Problem wird sich mit dem Aufstieg der KI noch verschärfen.

Appian: Ich habe noch ein paar abschließende Fragen … Wenn Sie an Ihre vielen Gespräche mit Vertretern der Wirtschaft und der Politik denken, was ist der größte Irrglaube im Hinblick auf KI?

Bryson: Hier gibt es verschiedene Punkte. Einer bezieht sich auf das, was ich vorhin bereits gesagt habe: Die Angst, dass die KI ihren Zauber verliert, wenn sie reguliert wird.

Aber Sie können KI regulieren. Und Sie können sie entsprechend ihrer Leistung regulieren.

Ein anderer Irrglaube ist, dass geistiges Eigentum oder Innovation durch eine Regulierung der KI verloren gehen.

Dabei ist die Medizin sehr stark reguliert und verzeichnet zehn Mal mehr geistiges Eigentum als die Tech-Branche. Häufig geht der Widerstand gegen Regulierungen von denjenigen aus, die sich nicht verändern wollen. Sie sehen nicht, dass Regulierung ihnen auch helfen kann.

Wenn ich also mit richtig großen Unternehmen spreche, versuche ich vor allem zu vermitteln, wie wichtig Verantwortung ist und dass sie ihren Softwareentwicklungsprozess in den Griff bekommen müssen. Maschinelles Lernen ist da nur ein Instrument in der Toolbox.

Sie müssen also bei der Entwicklung ihrer Systeme sorgfältiger sein. Es ist wichtig zu verstehen, woher Ihre Bibliotheken kamen.

Egal, ob Sie über Softwarebibliotheken sprechen, mit denen Sie eine Verknüpfung herstellen, oder über Datenbibliotheken, die Sie für das Training nutzen – Sie müssen wissen, woher sie kommen und wer darauf zugreifen kann.

Zeit zu verstehen, wie wir KI in unser Leben integrieren können

Appian: Zu guter Letzt: Was sind Ihre Erwartungen im Hinblick auf KI für 2019 und darüber hinaus?Bryson: Ich denke, es ist wichtig zu verstehen, dass KI überall ist. Die größte Herausforderung besteht darin, dass wir derzeit die politischen, wirtschaftlichen und sozialen Folgen davon zu spüren bekommen.

Von 2007 bis 2017 haben die Funktionen von KI einen riesigen Sprung gemacht. Das lag daran, dass wir mehr Daten zur Verfügung hatten und bei maschinellem Lernen besser geworden sind.

Auf lange Sicht wird das unseren Fortschritt beschleunigen.

Kurzfristig denke ich jedoch, dass wir etwas langsamer vorankommen werden.

Dies ist also der Moment, um herauszufinden, wie wir KI in unser Leben integrieren können.

APPIAN WEEKLY! abonnieren