Memo per i CXO: Joanna Bryson smonta le critiche alla regolamentazione dell’IA (Etica dell’IA, parte 2)

Joanna Bryson, esperta di IA e informatica presso l’Università di Bath, nel Regno Unito.

(Questo è il secondo episodio della nostra serie sull’intelligenza artificiale, che ha come protagonista l’informatica Joanna Bryson (@j2bryson), una delle 50 principali influencer in materia di IA da seguire su Twitter secondo Cognilytica). Leggi la prima parte qui.

Su quali basi una richiesta di credito viene negata? Perché a una certa persona viene negata la libertà vigilata? Com’è che alcuni contribuenti si sono visti tagliare i sussidi di invalidità?

Perché i computer che apprendono dagli umani interpretano automaticamente determinati lavori come maschili o femminili?

E così via.

Il punto è che i dirigenti aziendali sono sottoposti a pressioni sempre maggiori per ottenere la fiducia dei consumatori nelle decisioni automatizzate che già influenzano gran parte delle loro vite.

Secondo alcuni studi, più di metà dei consumatori nel mondo (53 %) sostiene che c’é bisogno di più educazione sul ruolo dell’IA nella società.

In altre parole, molti di loro non si fidano.

Ma la mancanza di fiducia sulla sua capacità di essere all’altezza delle aspettative etiche rischia di alimentare sempre maggiore timore e disprezzo.

La buona notizia?

Gran parte delle variabili riguardanti un uso etico dell’IA spesso è direttamente legata alle scelte fatte nello sviluppo della tecnologia.

Così, almeno, sostiene Joanna Bryson, esperta di IA e informatica presso l’Università di Bath, nel Regno Unito.

Di recente, Bryson ha collaborato a uno studio sull’IA (pubblicato sulla rivista Science), da cui è emerso che i computer possono avere gli stessi pregiudizi degli esseri umani, se li si addestra senza due diligence.

Eliminare i pregiudizi dall’IA

Lo studio ha confermato che, quando gli algoritmi ricavano il significato delle parole da grandi quantità di dati, applicano stereotipi molto simili ai nostri.

Questa è solo una delle ragioni per cui Bryson ritiene che sia importante dare priorità alla due diligence nello sviluppo dei sistemi di Intelligenza Artificiale, non tramite la creazione di nuovi regolamenti, bensì utilizzando le normative esistenti per ritenere responsabile chi costruisce, possiede o opera l’IA per ciò che viene fatto dai suoi sistemi.

In parole povere, Bryson se ne frega dell’uso etico dell’IA.

Speriamo che questa conversazione ti offrirà degli spunti interessanti.

Appian: Sei ottimista riguardo l’impatto dell’IA sulla società? C’è chi crede che il boom dell’intelligenza artificiale possa stroncare migliaia di posti di lavoro. Tu cosa ne pensi?

Bryson: C’è chi mi definisce ottimista perché non temo ciò che fa paura agli altri. D’altra parte, c’è anche chi pensa che sia solo una pessimista tecnofobica.

Perché la governance dell’IA dovrebbe essere una priorità

Appian: Cosa ti preoccupa del futuro dell’IA? Cosa ti tiene sveglia la notte?

Bryson: Un futuro in cui non potremo essere noi stessi, dove tutto ciò che ci riguarda sarà online e verremo penalizzati per questo. È una prospettiva che mi preoccupa molto. Insomma, sono perfettamente consapevole dei lati negativi di uno “stato di sorveglianza”, solo che non saprei come uscirne. Tutti sapranno chi siamo, cosa facciamo, cosa abbiamo fatto in passato e quali sono i nostri interessi.

Appian: Ho letto che l’IA rispecchia i valori della nostra cultura. Che non possiamo comprenderla a fondo se prima non capiamo noi stessi. Ma come si fa? Come facciamo a capire l’IA?

Bryson:

Penso che quello che dobbiamo fare, e che sta diventando forse il tema più rilevante, è capire come gestire la governance dell’IA. Come possiamo coordinare le nostre azioni attraverso la goverance per proteggere i singoli individui?

Gli algoritmi andrebbero regolamentati?

Appian: Che consiglio daresti alle organizzazioni in merito allo sviluppo dell’IA?

Bryson: La cosa più importante su cui sto cercando di concentrare l’attenzione di aziende ed enti regolatori, adesso, è che abbiamo bisogno di attribuire maggiori responsabilità in materia di IA. Niente di impossibile.

Appian: Tuttavia, c’è chi si oppone alla regolamentazione dell’IA con la scusa che possa soffocare l’innovazione. Tu cosa ne pensi?

Bryson:

Sono state fatte molte considerazioni fumose e devianti in materia di IA. Appena due anni fa, prestigiosi ingegneri non esitavano ad affermare che i regolamenti erano la morte dell’apprendimento profondo, che è il succo dell’innovazione dell’IA.

Ora, però, grandi aziende tecnologiche come Microsoft hanno cominciato ad affermare che credono nella regolamentazione dell’IA.

Credo sia importante riconoscere che è possibile monitorare e documentare ciò che viene fatto anche senza seguire la due diligence nello sviluppo dell’IA. Si tratta di una procedura analoga a quella di qualunque altro settore, solo che al giorno d’oggi l’IA è al centro dell’attenzione.

La trasparenza è più importante che mai

Appian: Quali sono i problemi connessi a una mancanza di trasparenza in materia di IA? Che cosa si rischia?Bryson:

In questo momento, chissà quante persone stanno rilasciando codice senza neanche chiedersi da quali librerie [di codice] provenga, senza conoscerne l’origine e senza sapere se sono state compromesse o dispongono di backdoor.

In sostanza, dobbiamo solo essere più prudenti. Pensiamo al caso del ponte Morandi: se non si sa quanto siano buoni i materiali edili utilizzati o se siano state adottate delle scorciatoie, non è possibile valutare la resistenza di ciò che si costruisce.

Oggi esistono leggi ben precise in materia di edilizia e di ponti, ma, fino a qualche secolo fa, chiunque disponesse di denaro sufficiente poteva costruire ovunque volesse.

Adesso, per costruire un edificio bisogna presentare i progetti alla commissione urbanistica, servirsi di architetti professionisti e così via, tutto perché gli edifici sono importanti e se sono fatti male possono crollare e fare stragi.

Puoi sostenere la legittimità del tuo software?

Appian: Pensi che i software vadano considerati allo stesso modo?

Bryson: Una volta non era così, ma adesso sì. Bisogna seguire procedure ben precise per essere sicuri di apportare innovazioni sostenibili.

Dovremmo essere in grado di dimostrare che il nostro software è del tutto legittimo ed essere ritenuti responsabili per quello che fa.

Perché la due diligence è importante

Appian: L’idea di ritenere le aziende responsabili per i software che creano è interessante, nella teoria, ma come può funzionare nel mondo reale?

Bryson: Ho sentito raccontare una storia molto interessante in questo senso. Quasi tutte le auto moderne ricorrono all’intelligenza artificiale, almeno in una certa misura, soprattutto per quanto riguarda la velocità di crociera e il rimanere nella propria corsia.

Purtroppo, un uomo in Germania ha avuto un infarto mentre era alla guida, ma è rimasto con le mani sul volante e gli occhi aperti.

Molti sistemi di IA sono fatti per evitare che chi guida si addormenti al volante, perciò in questo caso l’auto non ha rilevato problemi, è rimasta nella sua corsia e ha continuato ad andare dritto, finendo col causare un terribile incidente.

Il pubblico ministero ha indagato l’azienda produttrice dell’auto per scoprire cosa avesse fatto di sbagliato, ma questa è stata in grado di dimostrare che aveva seguito tutte le best practice del caso, e che quindi non poteva essere condannata.

Appian: Quale lezione possono ricavarne gli imprenditori che hanno adottato l’IA o stanno pensando di farlo?

Bryson:  Non credo che un’azienda che ha come motto “move fast and break things” possa dimostrare di aver seguito la due diligence se il loro software fa acqua da qualche parte.

Leggi la parte 3 del nostro dialogo con Bryson.

ISCRIVITI a APPIAN WEEKLY!