Macht künstliche Intelligenz Menschen überflüssig? In nächster Zeit noch nicht (Teil 1)

Dies ist der erste Teil einer zweiteiligen Serie über künstliche Intelligenz (KI), für den wir uns mit dem KI-Experten Vincent Conitzer @conitzer, Professor für Informatik an der Duke University, getroffen haben.

Der Kampf zwischen Mensch und Maschine ist nicht neu. Was sich jedoch verändert hat, ist die erstaunliche Geschwindigkeit, mit der sich die Intelligenz von Maschinen entwickelt.

Dass sich die intelligente Automatisierung inzwischen sogar in unserem Alltag etabliert hat, dürfte für niemanden mehr neu sein. (Fragen Sie einfach mal Siri oder Alexa.)

Das Internet der Dinge entwickelt sich mit einer Geschwindigkeit, die man sich zu seinen Anfängen niemals ausgemalt hätte, und künstliche Intelligenz wird schon bald in mehr als eine Milliarden Geräten integriert sein.

In Kürze werden Maschinen von Maschinen lernen. Künstliche Intelligenz wird aus ihren eigenen Erfahrungen lernen, sich besser an ihr Umfeld anpassen, Ergebnisse voraussehen und ihre Funktionen Ihren Bedürfnissen entsprechend verändern.

Pessimisten warnen davor, dass diese Entwicklungen den Menschen bald überflüssig machen werden.

Und es lässt sich nicht leugnen, dass intelligente Automatisierung viele Berufe aus dem Arbeitsmarkt verdrängen wird.

Doch das ist nur eine Seite der Medaille, denn für Berufe, in denen Empathie und das Verständnis des großen Ganzen eine Rolle spielen, bewahrheitet sich das Gegenteil. Solche Berufe waren von dem großen digitalen Umschwung bislang kaum betroffen.

Nun stellt sich jedoch die Frage, ob der Aufstieg der künstlichen Intelligenz all das ändern wird?

Über diese Frage haben wir uns mit KI-Experten Vincent Conitzer unterhalten, auf den umfangreiche Veröffentlichungen über die Auswirkungen von KI und intelligenter Automatisierung auf den Menschen zurückgehen.

Conitzer, Professor für Informatik, Wirtschaftswissenschaften und Philosophie an der Duke University, erklärt uns, warum KI und intelligente Automatisierung die Arbeitswelt zwar weiter durchmischen werden, den Menschen – zumindest auf kurze Sicht – nicht vollständig ersetzen werden.

Wir wünschen Ihnen viel Freude beim Lesen.

Appian: Guten Tag, Herr Professor. Willkommen bei Appian. Sie haben kürzlich einen Artikel im Wall Street Journal veröffentlicht, in dem Sie argumentierten, dass das Menschsein im Zeitalter von künstlicher Intelligenz und intelligenter Automatisierung immer noch seine Vorteile hat. Was meinen Sie damit?

Conitzer: Der Artikel handelt davon, was künstliche Intelligenz eigentlich kann und was sie nicht kann. Viele Menschen haben Bedenken, wenn es um KI geht. Diese Bedenken reichen von falschen Vorurteilen über korrekte Annahmen bis hin zu der Vorstellung, dass KI künftig die Welt beherrschen wird. Ich wollte Menschen dabei helfen, die verschiedenen Ansichten besser einordnen zu können, und habe deshalb diesen Artikel verfasst.

Was künstliche Intelligenz kann und was sie nicht kann

Appian: Ja, Sie haben beschrieben, worin KI gut ist und worin sie eher schlecht ist, und wie sie zum Teil auf merkwürdige Art und Weise versagt. Doch was geschieht, wenn KI diese Fehler nach und nach ausbügeln kann? Wie würde das den jetzigen Stand verändern?

Conitzer:

Meines Erachtens hat künstliche Intelligenz heutzutage immer noch große Einschränkungen. KI ist in einigen Bereichen bereits jetzt sehr gut. Diese Art von KI wird häufig als „schwache“ oder „schmale“ künstliche Intelligenz bezeichnet. Sie kann begrenzte Probleme, also Probleme die sich immer wieder durch die gleichen Lösungen beheben lassen, gut lösen. Vor allem dann, wenn es ein eindeutiges Ziel und einen klaren messbaren Erfolg gibt.

Appian: Welche Arten von Berufen sind von der schwachen KI am ehesten betroffen?

Conitzer: Beispielsweise Radiologen, die Röntgenbilder analysieren und in ihnen nach bestimmten Mustern suchen müssen. Schon heute stellen Unternehmen Roboter her, die Burger braten können, und die Straßen füllen sich mit selbstfahrenden Autos. Zweiteres stellt natürlich eine größere Herausforderung dar, da im Straßenverkehr viel Unerwartetes geschehen kann. Und genau an dieser Stelle kann der Mensch glänzen.

Appian: Berufe und Aufgaben, die repetitiv und vorhersehbar sind, fallen dem Wandel also am ehesten zum Opfer …

Conitzer:

Sobald eine Aufgabe weniger repetitiv und weniger vorhersehbar wird, sobald ein umfassenderes Verständnis der Welt und sozialen Interaktion gefragt ist, sobald man flexibel sein muss, um mit unerwarteten Situationen umgehen zu können – dann bewegen wir uns in Berufsfeldern, in denen Menschen einfach besser sind.

Mein Lieblingsbeispiel ist das der Erzieherin oder des Erziehers. In diesem Beruf muss man viele verschiedene Aspekte berücksichtigen. Man braucht ein gesundes Maß an Menschenverstand, und muss sowohl mit den Kindern als auch mit deren Eltern echte Beziehungen aufbauen. Tagtäglich wird man mit Situationen konfrontiert, die man so eventuell noch nie gesehen hat, auf die man jedoch stets flexibel reagieren muss.

Über die schwache künstliche Intelligenz hinaus

Appian: Die schwache künstliche Intelligenz kann solche qualitativen Probleme also nicht so gut lösen? Was wäre denn das Gegenstück zur schwachen KI? Was ist die Alternative?

Conitzer: Die starke künstliche Intelligenz. Diese Art der KI kann Menschen auch bei weniger begrenzten und weniger festgelegten Aufgaben in ihrer Leistungsfähigkeit übertreffen. Bereits heute gibt es KI-Systeme, die eine bessere Bildauswertung leisten als ihre menschlichen Kollegen. Allerdings kann man diese Systeme nicht einfach aus ihrem Kontext nehmen und sie auf beliebige andere Aufgaben anwenden.

Die Aufgabenbereiche, die wir gerne mit Menschen bestücken, erfordern für gewöhnlich viel Flexibilität und gesunden Menschenverstand. Menschen erkennen relativ schnell, wenn etwas in den Daten nicht ganz zu stimmen scheint. Wenn man beispielsweise Bilder auswertet und die Bilder eines Tages ganz anders aussehen, tritt man automatisch einen Schritt zurück und fragt sich: „Was ist hier geschehen?“

Menschen haben die Fähigkeit, das große Ganze zu sehen

Appian: Die aktuellen KI-Systeme können das also noch nicht?

Conitzer: Eventuell erkennen sie, dass eine Veränderung eingetreten ist, doch sie sind unfähig, diese in einen Gesamtkontext einzuordnen.

Diese Unfähigkeit, Erkenntnisse in einen größeren Kontext einzuordnen, sorgt immer wieder für amüsante Fehler der KI-Systeme. Eine Gruppe von Forschern der Carnegie Mellon University hat in diesem Zusammenhang ein System für maschinelles Sehen untersucht, das darauf ausgelegt ist, Menschen und Bilder zu erkennen. Die Forscher entwarfen bunte Brillengestelle, die sie sich in dem Versuch aufsetzten, das KI-System zu verwirren.

Es scheint merkwürdig, dass das einen Unterschied machen sollte, oder? Im Endeffekt waren das ganz normale Menschen, die sich Brillengestelle aufsetzten, um ein wenig anders auszusehen. Doch das System konnte damit nicht umgehen und klassifizierte die Personen konsequent falsch.

Das lag daran, dass das System kein wirkliches Konzept der verschiedenen potenziellen Aspekte eines Bildes hatte. Es konnte nicht erkennen, dass die Forscher sich einfach nur Brillen aufgezogen hatten. Dafür war es schlichtweg nicht konzipiert.

Dieses Beispiel illustriert, dass schwache künstliche Intelligenz unfähig ist, das große Ganze zu erkennen, und welche Folgen dies haben kann. Für die Bereitstellung von KI in der wirklichen Alltagswelt sind solche Erkenntnisse – gerade für leitende Führungskräfte, die diesbezüglich Entscheidungen treffen – äußerst wichtig.

Denn Fakt ist: Künstliche Intelligenz löst nicht alle Aufgaben. Sie funktioniert nur bei klar definierten, voraussehbaren Aufgaben, die genauso immer und immer wieder durchgeführt werden.

Sobald Erwartungen und Ziele in einen größeren Gesamtkontext eingeordnet werden sollen, werden menschliche Arbeitskräfte unverzichtbar.

Appian: Das erinnert mich an einen Artikel, den ich in der New York Times gelesen habe. Darin wurde beschrieben, wie ein KI-System den Antrag auf ein Hypothekendarlehen des ehemaligen Präsidenten des Federal Reserve Boards, Ben Bernanke, abgelehnt hatte. Grund dafür war, dass dieser erst vor Kurzem seinen Arbeitsplatz gewechselt hatte, was ihn in den Augen des KI-Systems zu einem Risikokandidaten machte. Ich glaube ein menschlicher Mitarbeiter hätte in diesem Fall anders entschieden.

Conitzer: Ich glaube auch. (Er lacht). Wobei ich Bernankes Kreditauskunft noch nie gesehen habe, wer weiß?! Davon abgesehen gibt es theoretisch zahlreiche Probleme, die bei einem solchen Genehmigungsverfahren für Darlehen auftreten können.

Das System hätte auf jeden Fall nie den größeren Zusammenhang gesehen und verstanden „ach, das ist ja Ben Bernanke, über den wissen wir bereits Einiges, das ist zweifelsohne ein guter Kandidat für ein Darlehen.“

Setzt man KI dazu ein, Menschen zu klassifizieren – um beispielsweise zu entscheiden, ob sie einen Kredit erhalten oder gar ins Gefängnis geschickt werden sollten – funktionieren die Daten oftmals nicht so gut, wie man sich das vielleicht vorstellt.

Bei der Automatisierung geht es nicht darum, menschliche Arbeitskräfte zu verdrängen

Appian: Viele Diskussionen drehen sich auch um den Konflikt zwischen künstlicher Intelligenz und menschlichen Arbeitskräften, und welche Auswirkungen dieser Konflikt auf Menschen haben wird. Sie plädieren jedoch dafür, dass wir uns vielmehr darauf konzentrieren sollten, wie viel sicherer und leichter KI unsere Aufgabenfelder machen wird.

Conitzer: Das stimmt, es gibt zahlreiche Möglichkeiten, wie KI unser Leben leichter machen kann. Vorhin habe ich erwähnt, dass KI bestimmte Aufgaben von Radiologen übernehmen kann. Doch das Berufsfeld des Radiologen wird deshalb nicht in absehbarer Zeit verdrängt werden.

Vielmehr könnte künstliche Intelligenz die Leistungsfähigkeit von Radiologen erweitern. Die Software könnte beispielsweise bestimmte Dinge auffangen, die dem Radiologen entgangen sind, oder herausgefilterte Bilder anbieten, deren Auswertung priorisiert werden sollte.

Diese Erweiterung der Kapazitäten durch KI gilt auch für andere Berufsfelder.

Bei KI geht also nicht darum, menschliche Arbeitskräfte zu verdrängen. Vielmehr wird darauf abgezielt, bestimmte Aspekte der Arbeit zu automatisieren, in denen künstliche Intelligenz schlichtweg besser ist als menschliche Arbeitskräfte. Vielleicht begrüßen es Menschen sogar, dass ihnen solche Aufgaben abgenommen werden, denn dadurch erhalten sie mehr Freiheit, den Aufgaben nachzugehen, an denen sie tatsächlich Freude haben.

Appian: Brauchen wir uns also nicht darum zu sorgen, dass die Automatisierung menschliches Personal ersetzen wird? Sind solche Diskussionen einfach ein wenig übertrieben?

Conitzer: So würde ich das nicht formulieren. Es kann durchaus sein, dass wir künftig weniger Personal brauchen, um das gleiche Arbeitspensum zu bewältigen.

Was jedoch tatsächlich unwahrscheinlich ist, ist dass ganze Berufsfelder vollständig automatisiert werden. Ich gehe davon aus, dass in den meisten Arbeitsabläufen immer noch menschliches Personal benötigt wird, das den Roboter kontrolliert und die Daten, die der Roboter bereitstellt, analysiert.

Appian: Einige Experten sorgen sich um die intelligente Automatisierung der Kriegsführung, bei der KI potenziell über Leben oder Tod entscheiden kann. Was sagen Sie dazu?

Conitzer:

Wir müssen uns die Frage stellen, ob wir uns bei dem Gedanken daran, dass Algorithmen uns solche Entscheidungen komplett abnehmen, tatsächlich wohlfühlen. Und ich denke, dass die Antwort vieler Menschen darauf ein klares „Nein“ ist.

Wenn ein KI-System über Leben und Tod entscheiden soll, möchten eigentlich alle sicherstellen, dass in diesen Prozess auch ein Mensch involviert ist.

Doch was bedeutet effektive menschliche Kontrolle eigentlich? Das ist ein fortwährender Diskussionspunkt, über den selbst Experten sich nicht einig sind.

Seien Sie in der nächsten Woche dabei, wenn wir den zweiten Teil dieser Serie veröffentlichen.

APPIAN WEEKLY! abonnieren