Macht künstliche Intelligenz Menschen überflüssig? In nächster Zeit noch nicht (Teil 2)

(Dies ist der letzte Teil unserer zweiteiligen Serie über künstliche Intelligenz (KI) mit dem KI-Experten Vincent Conitzer @conitzer, Professor für Informatik an der Duke University.  Teil 1 können Sie hier lesen.)

Die Hochrechnungen sind erstaunlich: Bis 2020 werden mehr als 50 Milliarden verbundene Geräte im Internet sein.

Aber noch erstaunlicher ist, dass KI bereits in mehr als einer Milliarde dieser Geräte eingebettet ist.

Fragen Sie einfach mal Siri und Alexa.

Damit kommen wir zum letzten Teil unseres Gesprächs mit KI-Experte und Professor für Informatik an der Duke University Vincent Conitzer.

Conitzer ist ebenfalls davon überzeugt, dass wir am Beginn einer erstaunlichen Revolution im Bereich der intelligenten Automatisierung stehen. Er sagt außerdem, dass Menschen immer noch einige Vorteile gegenüber Maschinen bieten.

Sollten wir uns Sorgen machen, dass KI die Weltherrschaft übernimmt? Das ist vielleicht auf lange Sicht eine wichtige Frage. Aber Conitzer sagt, dass die KI von heute für solche Szenarien noch viel zu begrenzte Möglichkeiten bietet.

Andererseits hebt er kontroverse Trends hervor, die zurzeit aufkommen – autonome Kriegsführung, technologische Arbeitslosigkeit und Verzerrungen von Algorithmen. Er warnt vor einer zu schnellen Regulierung von KI und klärt außerdem einige bekannte Missverständnisse bezüglich KI auf.

Wir hoffen, dass Ihnen dieses Gespräch wissenswerte Informationen bieten kann.

Appian: Es gibt zurzeit einige hitzige Debatten rund um das Thema KI und Ethik. Was ist Ihre Sicht zur Ethikfrage? Was sehen Sie als die größten ethischen Herausforderungen von KI an?

Conitzer: Was ich heutzutage in Bezug auf KI beobachte, ist, dass die Ziele von KI immer wichtiger werden. Früher war das kein großes Thema, weil KI noch im Laborstatus war … Es gibt da das Beispiel des verstärkten Lernens. Das ist ein Unterthema der KI, bei dem das System lernt, wie es selbst aktiv ein Ziel optimieren kann.

Ein Beispiel: Es gibt diese Problemstellung, bei der ein Wagen ein Gleis entlangfährt. Auf dem Wagen steht senkrecht eine Stange, die an einem Scharnier befestigt ist. Es besteht also die Gefahr, dass die Stange beim Fahren nach vorne oder nach hinten umfällt. Das System soll den Wagen so nach vorne und nach hinten schieben, dass die Stange aufrecht stehen bleibt.

Appian: Das ist keine einfache Aufgabe.

Conitzer: Nein, das ist es nicht. Und es ist ein guter Richtwert für Algorithmen. Es ist recht leicht, das Ziel zu bestimmen: nämlich, dass die Stange nicht umfällt.

Aber seien wir mal ehrlich. Es gibt nicht viele Menschen auf der Welt, die Stangen auf Wägen aufrecht halten müssen. Doch wenn wir (Labor-)Ziele auf die echte Welt übertragen, werden sie wichtiger.

Das Einmaleins des maschinellen Lernens

Appian: Sie haben außerdem über etwas gesprochen, das sich überwachte Klassifizierung nennt. Was genau ist das und inwiefern bezieht es sich auf KI?

Conitzer: Das ist ein ganz typisches Problem des maschinellen Lernens. Hier haben wir eine Menge Eingabedaten. Für einige dieser Daten haben wir auch ein Label. Wenn wir zum Beispiel viele Bilder haben, könnten einige dieser Bilder ein Label dazu haben, wer auf ihnen erscheint. Und wir wollen diese Daten möglicherweise an ein KI-System weitergeben und es so schulen, dass es selbst erkennt, wer auf den Bildern ist.

Appian: Ist das der gleiche Prozess, der in Spracherkennungssystemen verwendet wird?

Conitzer: Ja. Sie könnten beispielsweise ein Spracherkennungssystem haben, das Sie auf Daten in Sprachdateien hin schulen. Das Ziel ist es, Sprache zu übertragen, die nicht im Datenset war. Und wir hoffen, dass die KI das im Labor lernt.

Appian: Und woher wissen Sie, wann KI für den Einsatz in realen Situationen bereit ist?

Conitzer: Eine Möglichkeit ist es beispielsweise, den prozentualen Wert der richtigen Entscheidungen zu überwachen, die das System trifft. Aber wenn Sie ein solches System in realen Situationen einsetzen, können auch andere Probleme auftreten.

Beispielsweise könnte das System den am weitesten verbreiteten Dialekt der Bevölkerung wunderbar beherrschen. Dafür aber einen weniger verbreiteten Dialekt nicht besonders gut. Das könnte bedeuten, dass einige Personengruppen massiv benachteiligt werden.

Und solche Situationen kommen tatsächlich auf. Ich erinnere mich noch an die Zeit, als meine Kinder sehr jung waren und versucht haben, am Handy meiner Frau mit Siri zu sprechen. Es war erstaunlich, wie falsch das System das Gesagte interpretierte. Es gab vermutlich nicht besonders viele Kinder im Datenset von Siri, also tat sich das System mit Kinderstimmen schwer. Das was natürlich kein gravierendes Problem. Aber es gibt andere Fälle, in denen sich vergleichbare Probleme gravierend auswirken können.

Appian: Können Sie mir dafür einige Beispiele nennen?

Conitzer: Nehmen Sie beispielsweise Tech-Unternehmen wie Google oder Facebook. Diese wollen, dass möglichst viele Benutzer Konten einrichten. Aber sie wollen auch jene Konten löschen, hinter denen sich keine echten Menschen verbergen. Aus diesem Grund müssen Benutzer ihren Namen und andere Informationen angeben, um ihre Identität zu verifizieren. Wie bereits gesagt ist eines ihrer Anliegen, herauszufinden, hinter welchen Konten keine echten Menschen stehen.

Klarerweise ist der Name ein wichtiger Faktor bei der Beantwortung der Frage, ob ein Konto zu einem echten Menschen gehört. Nun hat sich aber herausgestellt, dass viele Namen von amerikanischen Ureinwohnern Gemeinsamkeiten mit Konten aufweisen, die nicht von echten Menschen sind.

Appian: Könnten Sie dafür ein Beispiel nennen?

Conitzer: Die Namen haben möglicherweise mehrere Einzelwörter, was ein Hinweis auf ein unechtes Konto sein könnte. Also wurden Konten von amerikanischen Ureinwohnern im Vergleich zu anderen Kunden weitaus häufiger als unecht eingestuft.

Einfache Ziele führen nicht immer zu guten Ergebnissen

Appian: Das bedeutet, dass die KI die Fehlklassifizierung nicht erkannt hat?

Conitzer: Nein, das KI-System hat den größeren Zusammenhang hier ganz und gar nicht verstanden.  Also hat es ungerechterweise eine gesamte Verbrauchergruppe benachteiligt.

Das ist die Art von Problem, bei der wir Vorsicht walten lassen müssen, weil einfache Ziele nicht immer zu guten Ergebnissen führen.

Appian: Wie können wir uns vor dieser Art von ungewollter Benachteiligung schützen? Wie vermeiden wir sie?

Conitzer: Das ist eine schwierige Frage. Es ist sogar schwierig, herauszufinden, wie wir ein System ohne Verzerrungen und Benachteiligungen definieren. Es gibt verschiedene Definitionen, die nicht immer die gleiche Bedeutung haben. Das ist also das erste Problem. Manchmal ist es aber einfach ganz offensichtlich, dass etwas schiefgelaufen ist. Ich glaube, es gibt keine eindeutige Methode, um KI-Verzerrungen zu vermeiden.

Daher halte ich es für sinnvoll, eine vielseitige Gruppe in die Entwicklung und Wartung von Software zu involvieren.

Die Software sollte vor ihrer Einführung auf Verzerrungen getestet werden, damit die negativen Folgen, über die wir gesprochen haben, vermieden werden.

Es ist wichtig zu verstehen, was reguliert wird

Appian: Nun zu Ethik, Transparenz und Verantwortlichkeit – wie stehen Sie zu der Debatte rund um Regulierung und KI? Sollte KI reguliert werden? Oder wird die Regulierung Innovationen in der Entwicklung von KI ausbremsen?

Conitzer: Ich bin nicht grundsätzlich gegen Regulierung. Ich denke, es ist wichtig, das Thema von Fall zu Fall zu betrachten. Wenn Sie KI nutzen, um vorauszusagen, welche Anzeigen jemand sieht, ist das ganz anders als KI zu nutzen, um zu entscheiden, ob jemand auf Kaution freikommt. Oder wenn Sie KI nutzen, um Strafurteile für kriminelle Menschen zu empfehlen.

Wenn Sie die KI regulieren, sollten Sie ein tiefgreifendes Verständnis dafür haben, was die Systeme genau machen und was Sie mit der Regulierung erreichen wollen.

Das Problem einer zu schnellen Regulierung, bei der Menschen nicht verstehen, was sie regulieren und warum, liegt darin, dass sie wahrscheinlich keine positiven Auswirkungen hat.

Aber es gibt auch Fälle, bei denen Regulierung angebracht ist. Wenn Sie über Gesetzesvollstreckungen sprechen und entscheiden wollen, ob jemand auf Bewährung freikommt, sollten diese KI-Systeme transparent und vertrauenswürdig sein.

Appian: Und wo wir von Vertrauenswürdigkeit sprechen – es gibt eine hitzige Debatte über KI und Vertrauenswürdigkeit. Was sagen Sie zu dieser Debatte?

Conitzer: Denken Sie an selbstfahrende Autos. Wenn es einen Unfall gibt, wer ist dann verantwortlich? Das kann eine schwierige Frage sein. Wir haben genau festgelegte Verkehrsregeln und wir wissen, was erwartet wird. Wenn KI-Systeme die Kontrolle übernehmen und ein Fehler passiert, ist es manchmal schwierig zu entscheiden, was falschgelaufen ist – und wer dafür verantwortlich ist.

Ist der ursprüngliche Programmierer verantwortlich, oder vielleicht die Person, die die Daten zur Verfügung gestellt hat, auf Basis derer das System trainiert wurde? Das sind schwierige Fragen, über die Juristen sich viele Gedanken machen.

Die größten Mythen über KI

Appian: Sie haben von dem Wirbel um KI gehört. Von all den Dingen, die Sie gelesen haben, was ist das größte Missverständnis hinsichtlich der Fähigkeiten von KI?

Conitzer: Ich glaube, es gab einerseits große Fortschritte in der Entwicklung von KI. Die Tatsache, dass es einige Fortschritte gab, ist also kein Irrglaube. Trotzdem denke ich, dass Menschen etwas zu viel in KI hineininterpretieren. Eine der Schwierigkeiten von KI war immer, dass die Dinge, von denen wir glauben, dass sie echte Intelligenz erfordern, nicht immer die Dinge sind, mit denen sich KI-Systeme schwer tun.

Appian: Können Sie uns einige Beispiele zum KI-Mythos geben?

Conitzer: Vor KI, in den Anfangszeiten der Informatik, glaubten wir vielleicht, dass ein Schachspiel die höchste Form menschlicher Intelligenz widerspiegelt. Wir dachten, dass eine Person, die gut Schach spielen kann, wirklich intelligent ist. Doch später fanden wir heraus, dass Schachspielen leichter als Fußball sein kann. Es gibt Menschen, die an der Entwicklung von KI-Fußball arbeiten. Sie sollten sich deren Arbeit einmal anschauen. Das kann ziemlich unterhaltsam sein.

Der ausschlaggebende Punkt ist, dass unsere eigene Wahrnehmung davon, in welchen Bereichen wir intelligent sind und in welchen nicht, sich infolge der KI-Forschung verändert hat.

Manchmal ist das für KI-Forscher frustrierend. Wenn sie beispielsweise versuchen, ein Problem zu lösen, das als Richtwert für KI gelten soll und sich dann das Richtwertziel verändert. Das führt zu Frustration bei den Leuten, die an der Lösung gearbeitet haben.

Appian: Daher wird unsere eigene Wahrnehmung darüber, was das Einzigartige an Menschen ist, dank KI-Forschung verändert.

Generelle Angst und Ablehnung von KI: Ist das gerechtfertigt?

Conitzer: Ja, aber wird es immer so sein? Ich weiß es nicht. Es gibt Menschen, die sich aufrichtige Gedanken darüber machen, dass KI generell intelligenter als Menschen werden könnte. Und zwar nicht nur für begrenzte Aufgaben – sondern eine KI, die genauso flexibel und weit gefasst im Verstehen ist wie Menschen. Es gibt jede Menge desaströse Szenarien, die sich daraus ergeben können.

Appian: Wie beurteilen Sie die generelle Angst vor KI?

Conitzer: Es ist schwierig für die KI-Community, diese Frage zu beantworten.

Die KI-Community hat in der Vergangenheit gewagte Aussagen über die Zukunft gemacht. Aber viele davon haben sich nicht bewahrheitet, da die Lösung gewisser Probleme schwieriger war, als die Menschen dachten.

Also hat die Community aufgehört, gewagte Aussagen über die Zukunft zu machen.

Appian: Allerdings haben Menschen außerhalb der Community begonnen, sich über diese Anliegen Gedanken zu machen.

Conitzer: Ja, aber das Problem des Timings ist hier entscheidend.

Einige Anliegen sind tatsächlich aktuell ein Thema, wie autonome Kriegsführung, technologische Arbeitslosigkeit, Verzerrung von Algorithmen.

Diese Dinge passieren jetzt gerade. Und wir müssen uns über sie Gedanken machen. Aber wird KI die Weltherrschaft übernehmen? Das ist ziemlich futuristisch.

Appian: Also ist die Übernahme der Weltherrschaft durch KI heute noch kein Thema?

Conitzer: Die Algorithmen von heute können das nicht erreichen. Es ist nicht verrückt, sich solche Gedanken zu machen.  Daher unterstütze ich Leute, die darüber nachdenken. Aber es ist wichtig, sich zu erinnern, dass wir dabei über verschiedene Zeitrahmen und verschiedene Ebenen von Unsicherheit sprechen.

Mustererkennung war gestern. Was kommt als Nächstes?

Appian: Wo wir gerade von der Zukunft sprechen – wenn Sie an 2019 und darüber hinaus denken, welche KI-Trends erwarten Sie, vor allem hinsichtlich Ethik und Verantwortbarkeit?

Conitzer: Mittelfristig werden wir einige Erfolge in Sachen maschinelles Lernen und Mustererkennungstechniken sehen. Ich denke, wir werden sehen, wie diese in verschiedenen Bereichen der Welt eingesetzt werden. Während der Trend voranschreitet, werden auch neue Probleme auftreten, mit denen wir nicht gerechnet haben.

Appian: Können Sie uns ein Beispiel nennen?

Conitzer: Ja, zum Beispiel, dass die bloße Erkennung von Mustern möglicherweise nicht ausreicht. Wir sehen das bereits bei selbstfahrenden Autos.

Die KI-Systeme in unseren Autos erkennen nicht nur Muster, sie können außerdem korrigierende Aktionen basierend auf dem Wahrgenommenen einleiten. Wir werden in nächster Zeit viel mehr von dieser Art von KI sehen.

Appian: Und wie passt Ethik in dieses Bild hinein?

Conitzer: Generell erfordern diese Systeme von Ihnen, dass Sie Ziele auf hoher Ebene verfolgen. Jede Person in einer Führungsposition weiß, dass Ziele, die Sie jemandem geben, auf die richtige Weise definiert werden sollten. Andernfalls erhalten Sie nicht die Ergebnisse, die Sie erwarten.

Das Gleiche gilt für KI-Systeme: Wenn Sie das falsche Ziel verfolgen, werden Sie möglicherweise von dem Ergebnis überrascht sein.

 

APPIAN WEEKLY! abonnieren