Anche i robot hanno pregiudizi? A sradicarli ci pensa la due diligence. (Etica dell’IA, parte 3)

Joanna Bryson, esperta di IA e informatica presso l’Università di Bath, nel Regno Unito.

(Questo è l’ultimo episodio della nostra serie in tre parti sull’intelligenza artificiale, che ha come protagonista l’informatica Joanna Bryson (@j2bryson), una delle 50 principali influencer in materia di IA da seguire su Twitter secondo Cognilytica). Leggi la seconda parte qui.

Nei due episodi precedenti, Bryson ha messo in discussione molte considerazioni fumose e devianti sulla resistenza opposta alla regolamentazione dell’IA e ha analizzato l’importanza della due diligence nel processo di sviluppo software.

In quest’ultimo post, Bryson ci parla di quanto sia difficile sradicare i pregiudizi nei confronti dell’IA, ci spiega perché le macchine non conquisteranno il mondo e ci svela il segreto per un’IA di successo.

Speriamo che troverai degli spunti interessanti.

Appian:  L’altra volta hai affermato che non credi che un’azienda che ha come motto “move fast and break things” possa dimostrare di aver seguito la due diligence se il suo software fa succedere delle brutte cose. Che insegnamento possono trarne i leader dell’IT e del business?

Bryson: Indipendentemente dal settore in cui si opera, bisognerebbe poter dimostrare di aver adottato la massima cautela nello sviluppo del software, compreso l’uso del machine learning.

Se gestisci una banca e ti ritrovi con un problema di contabilità, non ti metti a studiare le sinapsi dei tuoi contabili, ma ti chiedi: “Hanno fatto bene i conti”?

Penso che si possa fare la stessa cosa con il machine learning: “Questi sono i dati che ho usato. L’ho allenato così. Ho applicato le best practice cosà.” È così che ci si tutela e ci si protegge dai rischi.

Non abbiamo bisogno di nuove regole per l’IA

Appian: Il che ci porta alla domanda relativa alla regolamentazione dell’IA.

Bryson: Se solo riuscissimo a far capire alle aziende che è questo ciò che ci si aspetta, che questa è la normalità… Qui, nel Regno Unito, non pensiamo di aver bisogno di nuove leggi: dobbiamo solo aiutare la gente a capire come applicare quelle esistenti all’industria del software.

Appian: Detto questo, credi che l’approccio europeo del GDPR (Regolamento generale per la protezione dei dati) sia un buon esempio da seguire?

Bryson: La perfezione non esiste, ma penso che il GDPR stia aprendo una nuova strada per le policy dell’IA. Certo, si può sempre cercare di migliorarlo, ma se non ci impegneremo in questo senso, dovremmo semplicemente adottarlo (ride).

Fa ridere, perché in Europa tutti si chiedono “Perché qui non ci sono aziende come Facebook o Google? Perché non ci sono aziende così grandi in Europa?” …Il fatto che negli Stati Uniti ci siano aziende tanto potenti, però, non significa per forza che quello che stanno facendo sia giusto.

La domanda è: “Vogliamo davvero concentrare così tanto potere e capitale in una sola grande azienda”?

E penso che sia soprattutto per questo che Microsoft sta dando così tanta importanza all’etica e all’IA. Loro hanno già avuto diversi problemi con l’antitrust e sono ben consapevoli delle potenziali responsabilità dell’IA. E adesso non vedono l’ora di dimostrare la loro maturità sulla questione della governance. Anzi, forse lo hanno già fatto.

I leader digitali danno la priorità alla governance IA

Appian: Quindi alcuni dei giganti della tecnologia si stanno muovendo nella direzione giusta per quel che riguarda IA e governance?

Bryson: Cinque anni fa non l’avrei mai detto. Ma negli ultimi 18 mesi alcuni di loro (Microsoft e Google) hanno fatto scelte interessanti.

Appian: Cambiamo argomento. Parliamo dei pregiudizi degli algoritmi: è tutto vero o è solo una moda?

Bryson: Il machine learning sviluppa gli stessi pregiudizi degli umani (i cosiddetti pregiudizi "impliciti" per gli psicologi) quando questi ultimi li esprimono.

Appian: Puoi fare un esempio?

Bryson: Diciamo che, in generale, i nomi da donna sono più strettamente associati a termini che hanno a che fare con l’ambiente domestico, mentre i nomi da uomo a concetti orientati alla carriera. Questo è quanto emerge dal test di associazione implicita svolto dagli psicologi.

Ed è un buon esempio del fatto che, se si usa il machine learning per allenare l’IA, si hanno buone probabilità di scontrarsi con pregiudizi già esistenti. Questo però è solo uno dei tre modi in cui insinuare dei pregiudizi nell’IA.

Quando l’IA diventa cattiva

Appian: Quanto dovremmo preoccuparci dei pregiudizi dell’IA?

Bryson: Io sono molto preoccupata. Uno degli esempi che mi piace citare è quello dei dispenser di sapone che non fanno uscire il sapone a meno che la tua pelle non sia di una certa tonalità. [Secondo i giornali, i sensori a infrarossi non erano stati progettati per distinguere tonalità di pelle più scure.] Perciò, per far uscire il sapone, la gente in Asia Meridionale finiva per usare la carta igienica.

In altre parole, nessuno di coloro che hanno testato i dispenser era asiatico. Stranamente, erano tutti di razza caucasica (ride).

È una follia. Ma questi sono i pregiudizi più facili da correggere. E questo è uno degli aspetti positivi dell’IA.

È più difficile capire che cosa si cela dietro i pregiudizi impliciti degli esseri umani, mentre nel caso dell’IA, come per i veicoli senza conducente, puoi controllare i data log, verificare le percezioni dell’IA e capire perché ha agito in un certo modo.

Appian: Cosa ne pensi dei contesti in cui i pregiudizi vengono intenzionalmente insegnati all’IA?

Bryson: …Questo è proprio quello che secondo me la gente non capisce dei pregiudizi (nell’IA): che è possibile istigarli volontariamente. Non è una cattiveria da parte dell’algoritmo. Piuttosto è qualcuno che arriva e fa: “Mi hanno appena eletto, voglio diminuire le tasse e voglio togliere soldi a quelli che non hanno votato per me”.

Un algoritmo sbagliato taglia le pensioni di invalidità

In Idaho è successo che lo Stato ha scritto un algoritmo per distribuire le pensioni di invalidità. Ma la formula ha dato dei risultati per cui all’improvviso molta gente si è ritrovata con le pensioni tagliate, in alcuni casi anche del 42 %. Quando gli aventi diritto se ne sono accorti, lo Stato si è rifiutato di divulgare l’algoritmo, dicendo che era protetto da proprietà intellettuale.

Appian: E cosa è successo?

Bryson: L’ACLU (American Civil Liberties Union) ha assunto il caso, ha vinto un regolare processo e ha costretto lo Stato a rivelare la formula per distribuire le pensioni, che ovviamente era un vero disastro. Lo stesso sta succedendo con i programmi per la recidività: alcuni giudici usano un software di IA capace di predire la possibilità che una persona torni a commettere un reato. E il software che c’è dietro questi programmi è molto peggio di quello che scrivono di solito gli accademici. Non siamo riusciti a capire come abbiano potuto commettere così tanti errori di previsione.

Insomma, che cosa staranno sbagliando? Davvero è perché non sanno programmare? Oppure i pregiudizi nella programmazione sono volontari?

Per questo prima ho detto che la cosa più importante [per l’IA] è la responsabilità. L’unico modo che abbiamo per capire se una persona ha inserito un pregiudizio volontariamente, e non per errore, è tramite la responsabilità e i log.

L’IA non conquisterà il mondo

Appian: Passiamo un attimo ad altro. Allora, l’automazione intelligente ha fatto parecchi progressi. Siamo arrivati al punto in cui le macchine usano algoritmi sofisticati per imitare il comportamento degli umani. Ma questo le rende intelligenti?

Bryson: Per me, un termostato è intelligente. A che scopo definire l’intelligenza come appartenenza alla razza umana? Ci sono molti modi di essere intelligente. Ma penso che quello che sta davvero a cuore alle persone è l’agire morale e la pazienza morale.

Appian: Agire morale? Pazienza morale? Che cosa intendi?

Bryson: L’agire morale riguarda chi o cosa è responsabile per le azioni compiute da un singolo individuo. La pazienza morale indica per "chi" o "cosa" è responsabile la società.

Visto che ne stiamo parlando, le due cose alle quali la gente tiene di più sono:

  • L’IA sarà come noi?
  • Dobbiamo preoccuparci che possa conquistare il mondo?

Appian: Quindi dovremmo preoccuparci di un’apocalisse IA? L’IA conquisterà il mondo?

Bryson: Penso che non ci sia una sola macchina che possa conquistare il mondo. Il mondo è abbastanza grande. Ma, in gruppo, l’umanità sta facendo un ottimo lavoro per conquistare l’intero ecosistema.

Siamo noi che stiamo cambiando la società con l’IA. E come dovremmo regolare la situazione? Come dovremmo cambiare le leggi per tutelare le persone, ora che sappiamo un sacco di cose sul loro conto grazie ai big data?

Più frammentazione con l’avvento dell’IA

Appian: Nonostante i progressi di cui parli, i più scettici cercano ancora di oscurare l’IA affermando che è solo una moda fantascientifica. Alcuni tra i più critici dicono che si tratta solo di machine learning avanzato e intelligenza aumentata, non di IA vera e propria. Tu cosa ne pensi?

Bryson: Se intendi dire che non abbiamo un’IA che abbia l’aspetto di una persona, ti rispondo che una cosa del genere non esisterà mai. Non c’è una sola cosa fatta di cavi e silicone che avrà mai una coscienza fenomenologica anche solo lontanamente paragonabile a quella di un topo. E noi i topi li avveleniamo.

Uno dei problemi che stiamo affrontando nell’evoluzione dell’IA è la frammentazione. Pensa a quanto sarebbero diverse le nostre comunità se tutti si aprissero e parlassero tra di loro. Il problema della frammentazione è sorto per via delle tecnologie di comunicazione. E peggiorerà con l’ascesa dell’IA.

Appian: Ancora un altro paio di domande prima di chiudere… Pensando a tutti i leader aziendali e delle politiche pubbliche con cui hai parlato, qual è il pregiudizio più pesante nei confronti dell’IA?

Bryson: Sono molti. Uno di questi si rifà a una delle cose che ho detto prima, ovvero la paura che, se sottoposta a regolamentazione, l’IA perda tutto il suo fascino.

No, l’IA si può disciplinare e lo si può fare agendo sulle performance.

È anche sbagliato pensare che disciplinare l’IA comporti la perdita della proprietà intellettuale o metta a rischio l’innovazione.

La medicina è un settore altamente regolato in cui il materiale tutelato da proprietà intellettuale è 10 volte superiore a quello dell’industria tecnologica. Gran parte del rifiuto alla regolamentazione proviene da chi non è disposto a cambiare, persone che non capiscono che le norme in realtà potrebbero essergli d’aiuto.

Perciò, quando mi confronto con le grandi aziende, cerco di comunicare soprattutto l’importanza della responsabilità e di prendere il controllo del proprio processo di sviluppo software. E che il machine learning è solo l’ennesimo utensile in una cassetta degli attrezzi.

Il che significa che si dovrebbe stare più attenti alla progettazione dei sistemi. Bisogna conoscere la fonte delle librerie utilizzate.

Non importa se sono librerie software alle quali ti colleghi o librerie di dati dalle quali il tuo sistema apprende, quello che conta è sapere da dove vengono e chi vi può accedere.

È ora di capire come integrare l’IA nelle nostre vite

Appian: Per finire, quali sono le tue previsioni in merito all’IA per il 2019 e per gli anni a venire?

Bryson: Penso che sia importante capire che l’IA è ovunque, e che le sfide più grandi che stiamo affrontando in questo momento riguardano le conseguenze politiche, sociali ed economiche del modo in cui può influire su di noi.

Tra il 2007 e 2017 c’è stato un salto enorme in termini di capacità dell’IA, perché possedevamo più dati e abbiamo migliorato il machine learning.

Credo che, nel lungo periodo, questo fattore accelererà il ritmo del progresso.

Ma nel breve termine, in qualche modo assisteremo a un rallentamento.

Quindi questo è il momento giusto per capire come integrare l’IA nelle nostre vite.

ISCRIVITI a APPIAN WEEKLY!