Joanna Bryson entkräftet Kritik an Regulierung der künstlichen Intelligenz (KI-Ethik, Teil 2)

Joanna Bryson, KI-Expertin und Informatikerin an der britischen University of Bath.

(Dies ist die zweite Episode aus unserer Serie zum Thema künstliche Intelligenz mit Informatikerin Joanna Bryson [@j2bryson], laut Cognilytica eine der Top-50-Einflusspersonen im Bereich KI, denen man auf Twitter folgen sollte.) Lesen Sie den ersten Teil hier.

Wieso wurde dieser Kreditantrag abgelehnt? Warum wurde der Bewährungsantrag dieser Person abgelehnt? Wieso wurden die Erwerbsunfähigkeitsleistungen dieser Antragsteller gekürzt?

Und warum interpretieren die von Menschen „angelernten“ Computer bestimmte berufsbezogene Wörter automatisch als männlich und andere als weiblich?

Die Liste der Fragen zu den Prozessen hinter der künstlichen Intelligenz ist lang.

Und viele Geschäftsführer sehen sich heute gezwungen, die nötigen Antworten zu liefern und Maßnahmen zu ergreifen, um das Vertrauen der Verbraucher in die automatisierte Entscheidungsfindung zu stärken. Immerhin haben die maschinengesteuerten Entscheidungen reale Konsequenzen für die Menschen.

Dieser Aufklärungs- und Handlungsbedarf wird weiterhin durch Studien untermauert, denen zufolge weltweit mehr als die Hälfte der Verbraucher (53 %) der Meinung sind, dass wir nicht ausreichend über die Rolle der KI in unserer Gesellschaft informiert sind.

Dieser hohe Prozentsatz belegt, dass viele Verbraucher sich bereits heute Gedanken oder sogar Sorgen über künstliche Intelligenz machen.

Das Misstrauen und die Angst könnten sich zukünftig noch verschlimmern, da zunehmend auch die Frage aufkommen wird, wie die Technologie unseren ethischen Standards gerecht werden kann.

Die gute Nachricht ist, dass viele der ethischen Aspekte beim zukünftigen Einsatz von KI direkt von den Entscheidungen abhängen, die wir in der Entwicklungsphase neuer Technologien treffen.

Das erklärt Joanna Bryson, KI-Expertin und Informatikerin an der britischen University of Bath.

Frau Bryson beteiligte sich vor Kurzem an einer KI-Studie (veröffentlicht in der Zeitschrift Science), die offenbarte, dass Computer genauso voreingenommen sein können wie Menschen – falls wir ihre KI ohne gebührende Sorgfalt trainieren.

Eine neutrale KI

Die Studie bestätigte, dass Algorithmen, welche die Bedeutung von Wörtern aus riesigen Datenbeständen erlernen, dabei auch sehr menschliche Stereotypen entwickeln.

Auch aus diesem Grund spricht sich Frau Bryson nun besonders für die Sorgfaltspflicht bei der Entwicklung von KI-Systemen aus.

Es müssten dafür keine neuen Regelungen geschaffen werden, sondern man kann die bestehenden Richtlinien gezielt einsetzen, um diejenigen zur Verantwortung zu ziehen, die KI-Instanzen entwickeln, besitzen oder betreiben.

In unserem Gespräch mit Frau Bryson erfuhren wir Genaueres dazu, wieso ein ethischer Einsatz von KI so wichtig ist.

Wir hoffen, dass Ihnen dieses Gespräch wissenswerte Informationen bieten kann.

Appian: Welchen Einfluss wird KI auf unsere Gesellschaft haben? Sind Sie diesbezüglich optimistisch eingestellt? Ein Teil der Bevölkerung glaubt, dass die explosionsartige Ausbreitung von KI sich sehr negativ auf den Arbeitsmarkt auswirken wird. Was sagen Sie dazu?

Bryson: Man mag mich als Optimistin sehen, weil ich mich nicht vor dem fürchte, was anderen großes Unbehagen bereitet. Es gibt aber auch Menschen, die mich als technologiefeindlichen Pessimisten einstufen.

KI-Governance als Priorität

Appian: Welcher Aspekt einer Zukunft voller künstlicher Intelligenz macht Ihnen Sorgen?

Bryson: Ich mache mir zurzeit ernsthafte Sorgen darum, dass wir in Zukunft nicht mehr wir selbst sein können, weil unser gesamtes Leben einfach online verfügbar ist und wir ständig Bestrafungen befürchten müssen. Ich bin mir also sehr wohl bewusst, wie die Kehrseite eines „Überwachungsstaates“ aussehen kann.

Und ehrlich gesagt, kann ich mir nicht vorstellen, wie man so ein Szenario verhindern sollte. Andere werden wissen, wer wir sind, was wir tun, was wir getan haben und was unsere Neigungen sind.

Appian: Ich habe mal gelesen, dass die KI die Werte in unserer Gesellschaft widerspiegelt. Das würde bedeuten, dass wir niemals eine anständige KI entwickeln könnten, solange wir nicht mit uns selbst im Reinen sind. Wie soll das gehen? Wie entwickeln wir eine gute KI?

Bryson:

Es ist meiner Meinung nach wichtig, dass wir uns jetzt um eine effektive Governance der KI kümmern. Wir sollten überlegen, wie wir gemeinsam Governance umsetzen können, um das Individuum zu schützen.

Eine Regulierung der Algorithmen?

Appian: Was würden Sie Unternehmen raten, die sich an der Entwicklung der künstlichen Intelligenz beteiligen möchten oder dies bereits tun?

Bryson: Der wichtigste Aspekt, den ich sowohl Unternehmen als auch Regulierungsinstanzen ans Herz zu legen versuche, ist eine verstärkte Rechenschaftspflicht im Rahmen von KI. Das wäre nämlich durchaus machbar.

Appian: Es gibt allerdings auch ein starkes Argument gegen die Regulierung von KI. Es wird nämlich befürchtet, dass zu viele Vorschriften das Innovationspotenzial mindern. Was sagen Sie dazu?

Bryson:

Da gab es in der Vergangenheit einige irreführende Aussagen. Noch vor zwei Jahren warnten namhafte Ingenieure vor einer Regulierung. Das Argument war, dass dadurch die Vorteile des Deep-Learnings nicht genutzt werden könnten und also auch auf verschiedene KI-Innovationen verzichtet werden müsse.

Heute sprechen sich allerdings große Tech-Unternehmen wie Microsoft für eine Regulierung der KI aus.

Meiner Meinung nach ist im Moment wichtig, dass wir uns überhaupt bewusst sind, dass die Sorgfaltspflicht bei der Entwicklung von KI nachverfolgt und dokumentiert werden kann. Das könnte genauso funktionieren wie in anderen Bereichen auch. Bisher wurde im Bereich der KI nur einfach noch nicht von den etablierten Prozessen profitiert.

Transparenz als Voraussetzung für effektive KI

Appian: Wieso ist ein Mangel an Transparenz bei der Verwendung von KI problematisch? Welche Risiken gibt es dabei?

Bryson:

Es gibt zurzeit viele Entwickler, die Code veröffentlichen, ohne zu wissen, mit welchen Code-Bibliotheken dieser überhaupt verknüpft ist, woher diese Bibliotheken stammen und ob sie bereits kompromittiert wurden oder Hintertüren besitzen.

Wir müssen also generell vorsichtiger vorgehen. Das ist wie bei der [Morandi]-Brücke, die letzten August in Italien eingestürzt ist. Wenn man nicht weiß, welche Qualität die verarbeiteten Materialien hatten, oder ob vielleicht nachlässig gearbeitet wurde, kann man die Stabilität einer Brücke nicht einschätzen.

Im Fall von Brücken und Gebäuden gibt es heutzutage Gesetze, die vor Schaden schützen. Jedoch konnte sich noch vor einigen hundert Jahren jeder, der genug Geld hatte, selber etwas bauen lassen.

Heute muss man erst das Okay der Planungskommission haben, bevor man den Grundstein legt. Auch die Architekten müssen über entsprechende Lizenzen verfügen. Diese ganzen Vorbereitungen werden getroffen, weil die Wichtigkeit eines regulierten Gebäudebaus erkannt wurde. Denn geschehen bei der Konstruktion Fehler, können die Gebäude einstürzen und Menschen zu Schaden kommen.

Können Sie für Ihre Software bürgen?

Appian: Sind Sie also der Meinung, dass man mit Software genauso verfahren sollte?

Bryson: Das war nicht immer notwendig, ist es jedoch in letzter Zeit geworden. Wir sollten uns also gewissen Prozeduren unterziehen, damit unsere innovativen Entwicklungen auch Bestand haben.

Wir sollten beweisen können, dass wir voll und ganz hinter unserer Software stehen und wir sollten notfalls auch für etwaige Folgen zur Verantwortung gezogen werden.

Die Sorgfaltspflicht als Imperativ

Appian: Eine Holding-Gesellschaft, die verantwortlich für die Software ist, die sie selbst entwickelt hat – das ist eine interessante Vorstellung. Aber wie kann das praktisch umgesetzt werden?

Bryson: Zu der Frage kann ich ein Praxisbeispiel nennen. Fast jedes Auto verfügt heutzutage über irgendeine Art von KI. Diese ist beispielsweise zuständig für den Tempomaten und den Fahrspurassistenten.

In Deutschland erlitt nun ein Mann während des Fahrens einen Schlaganfall. Seine Hände lagen dabei noch am Lenkrad und seine Augen blieben auch offen.

Nun gibt es in Autos KI-Technologien, die erkennen, wenn ein Fahrer am Steuer einschläft. In diesem konkreten Beispiel ermittelte die KI, dass der Fahrer okay sei. Der Fahrspurassistent wurde aktiv, das Auto fuhr weiter und verursachte einen großen Verkehrsunfall.

Die Staatsanwaltschaft versuchte herauszufinden, ob die Schuld beim Hersteller des Fahrzeugs zu suchen sei. Das Unternehmen war allerdings in der Lage zu beweisen, dass im Herstellungsprozess immer nach den Best Practices verfahren wurde. So konnten auch die Staatsanwälte überzeugt werden, dass die Schuld nicht beim Hersteller lag.

Appian: Was können Unternehmen, die sich der KI zuwenden oder zumindest aktiv über ihren Einsatz nachdenken, daraus lernen?

Bryson: Wenn ein Unternehmen einfach nur nach dem Prinzip „Augen zu und durch“ drauf los entwickelt, wird es die Einhaltung seiner Rechenschaftspflicht nicht belegen können, falls später etwas mit der Software nicht klappt.Lesen Sie Teil drei unseres Gesprächs mit Joanna Bryson.

APPIAN WEEKLY! abonnieren