L’IA risque-t-elle de rendre les êtres humains obsolètes ? Pas à court terme (partie 2)

(Il s’agit de la deuxième et dernière partie de notre chronique sur l’intelligence artificielle (IA), en collaboration avec Vincent Conitzer (@conitzer), expert en IA et professeur en sciences informatiques à l’université de Duke. Découvrez la 1re partie ici.)

Les prévisions sont stupéfiantes : d’ici 2020, notre planète comptera plus de 50 milliards d’appareils connectés à Internet.

Et l’IA est déjà intégrée à plus d’un milliard d’entre eux.

Vous n’y croyez pas ? Demandez à Siri ou Alexa.

C’est la question que nous abordons dans la dernière partie de notre entretien avec Vincent Conitzer, expert en IA et professeur de sciences informatiques à l’université de Duke.

Ce dernier s’accorde à dire que nous sommes en marge d’une révolution exceptionnelle dans le domaine de l’automatisation intelligente. Cependant, il soutient que l’être humain conserve certains avantages.

L’intelligence artificielle risque-t-elle de prendre le contrôle de la planète ? C’est une question importante qu’il convient d’envisager sur le long terme. Vincent Conitzer se veut rassurant en affirmant qu’à l’heure actuelle, l’IA est trop limitée pour envisager un tel scénario.

Toutefois, il met en évidence certaines tendances controversées qui ne sont pas si lointaines : les armes autonomes, le chômage technologique et le biais algorithmique. Il nous met en garde contre les réglementations hâtives en matière d’IA et tord le cou à certaines idées reçues.

Nous espérons que vous apprécierez cet échange.

Appian : Aujourd’hui, le débat qui oppose IA et éthique fait rage. Que pensez-vous de cette notion d’éthique ? Selon vous, quelles sont les plus grandes difficultés en matière d’éthique lorsqu’il est question d’IA ?

Vincent Conitzer : Depuis quelque temps, je constate que nous cherchons de plus en plus à déployer de l’IA dans des environnements réels. Les objectifs visés dans ce domaine prennent de plus en plus d’importance. Auparavant, ce n’était pas vraiment un problème puisque l’IA était confinée aux seuls laboratoires. On peut citer l’apprentissage par renforcement en exemple. C’est un sous-domaine de l’IA qui consiste à faire en sorte que le système apprenne à engager des actions pour optimiser un objectif.

Par exemple, imaginons un chariot qui se déplace sur un rail. Un mât, érigé sur le chariot, est connecté à une charnière. Il existe un risque que le mât tombe. Le système doit donc déplacer le chariot d’avant en arrière de manière à stabiliser le mât.

Appian : C’est un problème difficile à résoudre.

Vincent Conitzer : En effet. Et c’est une excellente référence de base pour les algorithmes. L’objectif est simple à définir : le mât ne doit pas tomber.

Mais soyons honnêtes, c’est un problème auquel peu de personnes sont confrontées. Cependant, en transférant des objectifs (de laboratoire) dans le monde réel, ces questions prennent de plus en plus d’importance.

Apprendre grâce à l’apprentissage automatique

Appian : Vous avez aussi parlé de la classification supervisée. Qu’est-ce que c’est et quel est le lien avec l’IA ?

Vincent Conitzer : C’est un problème typique dans le domaine de l’apprentissage automatique. Cela désigne une situation dans laquelle nous disposons d’un grand nombre de saisies de données. Certaines de ces données sont associées à des étiquettes. Par exemple : nous possédons un grand nombre d’images et, pour certaines de ces images, les individus qui y figurent sont identifiés et étiquetés. Il est alors possible de fournir ces données à un système d’IA et de le formater de manière à ce qu’il puisse identifier par lui-même les personnes qui se trouvent sur chaque image.

Appian : S’agit-il du même principe que celui utilisé dans les systèmes de reconnaissance vocale ?

Vincent Conitzer : Oui. Vous pouvez tenter de former un système de reconnaissance vocale à partir des données contenues dans des fichiers vocaux. L’objectif est d’être capable de retranscrire de la parole qui ne se trouve pas dans l’ensemble de données. Le but est que le système d’IA apprenne à faire cela dans un laboratoire.

Appian : Comment savoir si le système est prêt pour le monde réel ?

Vincent Conitzer : L’une des solutions consiste à analyser le pourcentage de décisions correctement prises par le système. Cependant, lorsqu’un tel système est déployé dans le monde réel, il ne doit rencontrer aucun problème.

Les résultats seront probablement excellents si l’on se base sur le principal dialecte utilisé par une population donnée. Mais ils peuvent être médiocres pour un dialecte minoritaire. Dans ce cas, une partie de la population s’en trouve grandement lésée.

Et ce genre situations se produit réellement. Lorsque mes enfants étaient encore petits, ils essayaient de parler à Siri sur l’iPhone de ma femme. La plupart du temps, leurs intentions étaient horriblement mal interprétées. L’on peut supposer que leur ensemble de données comportait peu d’enfants. Autant dire que le courant n’est pas passé entre Siri et mes enfants. Ce n’était pas bien grave. Mais cela peut avoir de graves conséquences dans des situations plus sérieuses.

Appian : Avez-vous des exemples ?

Vincent Conitzer : Les entreprises de technologie, comme Google et Facebook, demandent à leurs utilisateurs de créer des comptes personnels. Elles cherchent alors également à détecter les comptes qui ne sont pas associés à des personnes réelles. Pour cela, elles demandent aux utilisateurs leur nom et d’autres informations permettant de confirmer leur identité. Elles essaient alors d’identifier les comptes qui ne sont pas associés à des personnes réelles.

Le nom d’un utilisateur est donc l’un des facteurs à prendre en compte pour déterminer s’il s’agit d’une vraie personne. Cependant, les noms de nombreux Amérindiens des États-Unis partagent des caractéristiques similaires à ceux de faux comptes.

Appian : Pouvez-vous nous donner un exemple ?

Vincent Conitzer : Les noms peuvent contenir des mots que l’on retrouve typiquement dans les faux comptes. Ainsi, les comptes de nombreux Amérindiens étaient considérés comme de faux comptes, et ce dans des proportions considérablement plus importantes que d’autres utilisateurs.

Les objectifs simples ne produisent pas toujours des résultats optimaux.

Appian : L’intelligence artificielle n’a pas repéré cette erreur de classification ?

Vincent Conitzer : Non, le système d’IA n’a pas compris le contexte dans son ensemble.  Résultat : une communauté entière de consommateurs a été injustement désavantagée.

C’est le genre de choses auxquelles nous devons faire attention. Les objectifs simples ne produisent pas toujours des résultats optimaux.

Appian : Comment se prémunir contre ce type de préjugé involontaire ? Comment prévenir ce problème ?

Vincent Conitzer : C’est une question complexe. Le principe même d’un « système qui n’a aucun parti pris » n’est pas très clair. Il existe plusieurs définitions qui ne se valent pas toujours. C’est un problème en soi. Et parfois, une erreur évidente survient et cela se voit comme le nez au milieu de la figure. Je ne pense pas qu’il existe une solution unique pour éliminer les biais de l’IA.

Je pense qu’il est judicieux de faire appel à un groupe d’experts éclectiques pour créer et inspecter le logiciel.

Celui-ci doit faire l’objet de tests avant son déploiement, afin de déterminer s’il présente des biais pour éviter de créer des résultats nuisibles, tels que ceux que nous avons mentionnés.

Il faut impérativement comprendre ce que l’on essaie de réguler.

Appian : Que pensez-vous du débat qui implique les processus de régulation et l’IA, d’un point de vue de l’éthique, de la transparence et de la responsabilité ? L’IA doit-elle être régulée ? Ou pensez-vous qu’une telle régulation risquerait de freiner l’innovation et l’évolution de l’IA ?

Vincent Conitzer : Je ne suis pas contre la mise en place de réglementations. Selon moi, il faut procéder au cas par cas. Utiliser l’IA pour prédire le type de publicité qu’un utilisateur verra, ce n’est pas la même chose que de l’utiliser pour décider de la mise en liberté provisoire d’un prévenu ou non. Ou pour recommander un verdict pour des accusés reconnus coupables de crimes.

Pour réguler l’IA, il faut comprendre parfaitement à quoi servent les systèmes et ce qu’ils accomplissent, mais aussi le but de la régulation.

Le problème des régulations hâtives, c’est que les premiers concernés ne comprennent pas ce qu’ils tentent de réguler ni pourquoi. Ils risquent alors de ne pas être très efficaces.

Cependant, dans certains cas, la régulation est nécessaire. En matière de mise en application de la loi, pour décider de la mise en liberté d’un prévenu, par exemple, les systèmes d’IA doivent être transparents et doivent rendre des comptes.

Appian : À ce propos, le débat sur la question de la responsabilité des systèmes d’IA fait rage. Qu’en pensez-vous ?

Vincent Conitzer : Prenons l’exemple des véhicules autonomes. En cas d’accident, qui est responsable ? C’est une question complexe. Le Code de la route est très clair et nous savons à quoi nous attendre. Cependant, lorsqu’un système d’IA prend le contrôle et qu’un accident se produit, il est parfois difficile de comprendre exactement ce qui a dérapé et qui est responsable.

Est-ce la faute du programmeur ou de la personne qui a fourni les données qui ont servi à la formation du système ? Ce sont des questions compliquées qui font l’objet de réflexions approfondies dans le monde juridique.

Les mythes qui entourent l’intelligence artificielle

Appian : L’IA suscite énormément d’intérêt. Quelles sont les principales idées reçues concernant ses capacités ?

Vincent Conitzer : Au cours de son évolution, l’IA a connu une progression fulgurante. Ce n’est donc pas une erreur de dire que des progrès ont été faits à ce niveau. Toutefois, les gens ont tendance à extrapoler et à aller un peu trop loin. En matière d’IA, il faut comprendre que les aspects qui nécessitent réellement de l’intelligence ne sont pas forcément les choses les plus difficiles à réaliser pour les systèmes d’IA. Cette notion n’est pas toujours facile à assimiler.

Appian : Pouvez-vous nous donner des exemples de mythes liés à l’IA ?

Vincent Conitzer : Avant l’arrivée de l’IA, au tout début de l’ère informatique, le jeu d’échecs était considéré comme l’une des formes d’intelligence humaine les plus développées. Nous pensions qu’un joueur d’échecs était forcément une personne extrêmement intelligente. Mais, avec le temps, nous nous sommes rendu compte que jouer aux échecs pouvait s’avérer plus simple que jouer au foot. De nombreux programmeurs travaillent sur le foot en intelligence artificielle. Je vous conseille de vous y intéresser. Ça vaut le détour.

Ce que je veux dire, c’est que notre perception de ce qui fait notre intelligence par rapport aux autres a évolué grâce aux résultats des recherches portant sur l’IA.

Cela peut s’avérer frustrant pour les chercheurs en IA : lorsqu’ils résolvent un problème considéré comme une référence pour l’IA, la référence change et la barre est placée encore plus haut. On peut comprendre que ce soit frustrant pour les personnes qui ont résolu le problème.

Appian : Ainsi, alimentée par les recherches sur l’IA, notre propre vision de ce qui rend l’humain unique ne cesse d’évoluer.

La peur suscitée par l’IA est-elle justifiée ?

Vincent Conitzer : Oui, mais est-ce que ce sera toujours le cas ? Je ne sais pas. Certaines personnes craignent réellement que l’IA devienne globalement plus intelligente que l’Homme. Et pas uniquement pour des tâches restreintes. Elles s’inquiètent du développement d’une IA aussi flexible que l’être humain, dotée d’un niveau de compréhension aussi vaste. Les scénarios catastrophes envisageables sont aussi nombreux que variés.

Appian : Que pensez-vous de cette peur suscitée par l’IA ?

Vincent Conitzer : C’est un aspect complexe, même pour la communauté de l’IA.

Cette communauté avait pour habitude de faire des prévisions très audacieuses. Toutefois, peu d’entre elles sont devenues réalité, car les problèmes étaient plus difficiles à résoudre que ce que l’on pensait.

Les membres de la communauté ont donc levé le pied sur ce type de prévisions.

Appian : Pourtant, des gens en dehors de la communauté expriment ces mêmes craintes.

Vincent Conitzer : Oui, mais la temporalité est importante.

Certaines de ces craintes sont particulièrement d’actualité, comme les armes autonomes, le chômage technologique ou le biais algorithmique.

À l’heure où nous parlons, on observe déjà ces phénomènes. Nous devons nous en inquiéter. Mais pour ce qui est de la conquête du monde par l’IA… On se projette loin dans le futur.

Appian : Il ne faut donc pas se préoccuper de cette éventualité pour le moment ?

Vincent Conitzer : À l’heure actuelle, les algorithmes dont nous disposons ne sont pas assez évolués. Il n’est cependant pas extravagant de réfléchir à ces choses-là.  Je soutiens pleinement les gens qui s’y intéressent. Mais il ne faut pas oublier que nous parlons d’échelles temporelles différentes et de niveaux d’incertitudes différents.

Au-delà de la reconnaissance des formes : à quoi s’attendre ?

Appian : Parlons de l’avenir. Lorsque vous vous projetez sur l’année 2019 et les années à venir, que peut-on s’attendre à voir en matière de tendances en IA, notamment par rapport aux notions d’éthique et de responsabilité ?

Vincent Conitzer : À court terme, on peut s’attendre à de formidables réussites dans le domaine de l’apprentissage automatique et des techniques de reconnaissance des formes. Ces solutions seront probablement déployées dans le monde réel, dans des contextes différents. Cette tendance engendrera aussi de nouveaux problèmes que nous n’aurons pas su anticiper.

Appian : Par exemple ?

Vincent Conitzer : La reconnaissance des formes, par exemple, risque de ne pas suffire. On constate déjà ce problème avec les voitures autonomes.

Les systèmes d’IA qui équipent nos voitures ne font pas que détecter les formes. Ils peuvent aussi appliquer des actions correctives en fonction de ce qu’ils perçoivent. Ce type d’IA sera de plus en plus utilisé, à court terme.

Appian : Qu’en est-il de l’éthique ?

Vincent Conitzer : Généralement, il faut définir un objectif de haut niveau que le système doit atteindre. N’importe quel cadre supérieur sait que, lorsque vous attribuez un objectif à quelqu’un, celui-ci doit être correctement formulé. Autrement, vous n’aurez pas les résultats escomptés.

Cela vaut aussi pour les systèmes d’IA : si vous définissez un mauvais objectif, le résultat risque de vous surprendre.

S'ABONNER À APPIAN WEEKLY!