L’etica e l’Intelligenza artificiale è un connubio che può esistere? La risposta di Live Tech, driven partner Faire Hub.
“L’Intelligenza Artificiale può dirsi etica oppure no?” In tanti se lo chiedono, primi fra tutti i consumatori e a seguire le aziende che utilizzano notevoli moli di dati. E, altrettanti sono chiamati a rispondere su questo tema e dare un proprio contributo: dai filosofi, ai neuroscienziati ed esperti di robotica.
Noi lo abbiamo chiesto a Live Tech, nostro driven partner di progetto, che ha risposto con un’accurata analisi invitandoci ad una profonda riflessione.
Il rapporto tra filosofia e scienza
Nella storia dell’uomo che inventa, crea e rivoluziona, di volta in volta la propria esistenza, spesso è stato il pensiero filosofico a dare una direzione al dispiegarsi della realtà materiale, o perlomeno una traccia da seguire.
Altrettanto spesso, però, questo rapporto tra filosofia e scienza è stato reciproco. Ha portato alla nascita – come avvenuto tra Settecento e Ottocento – di correnti quali il Positivismo e il Materialismo storico e dialettico. Filosofie fondamentali per aver indagato le implicazioni future delle rivoluzioni industriali su una società che, fino ad allora, aveva vissuto di agricoltura e commercio.
Una società che si avviava verso il carbone, dando seguito a un paradigma produttivo ed economico inedito. Lo stesso paradigma che noi, duecento anni dopo, stiamo tentando di superare e abbandonare.
Le “paure” nell’evoluzione dell’essere umano
“Noi”, che tra una rivoluzione e l’altra, siamo arrivati a parlare di Industria 4.0 ponendoci davanti anche nuove questioni filosofiche da affrontare, in un certo senso ancora vicine a quelle ottocentesche. Ma se al tempo ci si domandava quale grado di alienazione avrebbe portato all’uomo il lavoro in fabbrica, oggi la domanda carica d’ansia è “l’uomo sta per essere sostituito dalle macchine?”.
C’è chi, in questo rapido e strutturale progresso economico, sente ribollire la paura atavica della società moderna di un mostro del dottor Frankenstein: che prende vita in laboratorio, inganna il suo artefice e poi lo fa soccombere.
Questo mostro oggi è chiamato Intelligenza Artificiale. Un concentrato di reti neurali in grado di replicare il funzionamento della mente umana, di imparare sempre di più e di prendere decisioni in modo arbitrario e oscuro.
Certo che, detto così, farebbe paura a chiunque. Del resto, però, volendo stilizzare il dibattito odierno, è proprio la paura il sentimento più comune che ne vien fuori.
L’Intelligenza Artificiale, una tecnologia da scoprire più profondamente
La tecnologia AI fortunatamente ha molte sfumature, e finora nessuna di queste implica la realizzazione di un disegno diabolico di distruzione della vita umana.
Ci si impegna molto, però, ad agevolarla, questa vita – basterebbe pensare alle già numerose applicazioni dell’AI in campo medico-sanitario, per averne un’idea.
Allo stesso tempo, però, è innegabile che si tratti di una tecnologia poco conosciuta e che conserva ancora molte zone d’ombra. Ecco che allora si riaffaccia la filosofia nella sua forma più “bacchettona”, che è l’etica. L’etica definisce cosa è giusto e sbagliato, cosa è lecito e cosa non lo è: di base, l’etica si riferisce quindi alle azioni umane e alle loro conseguenze.
Ma quando non è propriamente l’uomo a commettere delle azioni; quando non è la mente umana a suggerire dei ragionamenti in virtù dei quali si agisce (o reagisce), ma a fare tutto questo è un concentrato di reti neurali che ricevono degli input, allora cosa succede?
Succede che si rende necessario parlare anche di etica dell’Intelligenza Artificiale, se questa si sostituisce all’intelligenza umana.
L’etica come strumento regolatore dell’AI
E l’etica è sin da ora – molto probabilmente sarà sempre più – lo strumento, la valvola con cui regolare l’impeto rivoluzionario – e per alcuni potenzialmente pericoloso – dell’AI.
Pericoloso, perché? Prima di arrivare a temere la furia omicida di un mostro dalle sembianze umane costruito in laboratorio, fermiamoci a capire quale può essere percepito come problema.
Il problema che spesso si pone è legato alla capacità, della nuova intelligenza, di saper prendere delle decisioni in modo corretto, giusto e responsabile.
La questione di fondo ruota intorno al “bias”, il pregiudizio, sociale e culturale. Questo può essere instillato nelle macchine dall’uomo, un algoritmo sul quale queste fondano le loro scelte seguendo dei processi ancora oscuri all’intelligenza umana.
Le discriminazioni sociali e l’AI
Il bias può essere, per esempio, causa di discriminazioni sociali, con la conseguente esclusione di minoranze dalla comprensione delle intelligenze artificiali.
E se non fosse esattamente così? Se, al contrario, fosse proprio l’Intelligenza Artificiale a eliminare quei pregiudizi che molto spesso abitano le menti umane e a garantire quella neutralità, quella scelta salomonica nel rispetto dell’uguaglianza che spesso tutti quanti invochiamo?
Per esempio, pensiamo a cosa accadeva nell’America degli anni Sessanta quando una banca doveva valutare se concedere o meno un prestito o un mutuo a un richiedente. I criteri su cui stabilire se il cliente fosse “meritevole” o meno erano relativi al suo luogo di residenza – e alla storia di inadempienza finanziaria di quell’area – anziché basarsi sulla attendibilità personale del richiedente.
Questa pratica venne definita dal sociologo James McKnight “redlining”, perché effettivamente consisteva nel tracciare, sulla mappa della città, una linea rossa per definire il confine tra le aree accettabili e quelle da escludere. E nella fattispecie, quelle escluse erano periferie abitate perlopiù da afroamericani.
Il “Redlining” e l’inchiesta di Bill Dedman
Un’inchiesta giornalistica del 1989, a firma di Bill Dedman – che valse a questo il premio Pulitzer – dall’eloquente titolo The Color of Money, rivelò come nella città di Atlanta ai cittadini bianchi e a basso reddito fossero stati concessi più facilmente prestiti rispetto ai cittadini neri a reddito medio-alto.
Nel 1977 una legge dichiarò illegale la pratica del redlining quando fondata su discriminazioni razziali, etniche, religiose e sessuali, ma nonostante questo ancora oggi gli effetti di quel sistema a lungo perpetrato sono ben visibili.
Questo è solo uno dei tanti esempi che sarebbe possibile fare per evidenziare come i pregiudizi dell’uomo abbiano spesso condizionato e colpito ingiustamente la vita di altri uomini. E a pensarci bene, pure se quegli stessi pregiudizi fossero trasferiti alle reti neurali che tanto impauriscono, le macchine sarebbero in grado di apprendere e correggersi di volta in volta. E queste macchine, per di più, non resterebbero intrappolate in un modo di pensare sbagliato, ingiusto, moralmente ed eticamente scorretto.
Secondo l’agenzia di rating americana Moody’s, infatti, “un modello di machine learning, non vincolato da alcune delle ipotesi dei modelli statistici classici, può fornire intuizioni migliori che un analista umano non potrebbe dedurre dai dati”.
Quasi a voler dire che il potenziale etico delle macchine potrebbe superare quello delle persone.
La costruzione dell’Identikit digitale tramite l’AI
Ma i problemi di etica dell’AI sollevati nel dibattito quotidiano si rivolgono spesso al suo impiego nell’informazione digitale. Potremmo fare molti esempi, ma ne scegliamo uno fra tutti e che ci riguarda più da vicino, quello dei sistemi di raccomandazione. La capacità delle piattaforme di intercettare i gusti e gli interessi dell’utente, attraverso quella che in gergo è chiamata profilazione utente, porta alla costruzione di un identikit digitale.
Per delineare un identikit digitale, le piattaforme social e di vendita si servono dei dati di registrazione per conoscere l’utente. Successivamente si interessano alle scelte, tra i contenuti proposti all’utente, per indagarne ancora meglio gli interessi, in modo da sapere che tipologia di prodotto o contenuto proporre.
Succede, però, che la maggior parte di tali sistemi tenda a far entrare l’utente in una bolla informativa. Di conseguenza, la sua esperienza sarà limitata sempre allo stesso ventaglio di argomenti e contenuti proposti sin dall’inizio.
Ed è qui che si pone il tema dell’etica: perché i sistemi potrebbero essere intesi come strumenti invasivi, che scrutano fin troppo le nostre vite. Ma soprattutto perché andrebbero a “bollare” l’utente, circoscrivendo la propria informazione entro un perimetro da cui potrebbe essere difficile evadere.
Non è sicuramente paragonabile al redlining ma, se mal utilizzato, il recommendation system potrebbe causare allo stesso modo una sorta di discriminazione.
Quanto è etica l’analisi dei dati? Il punto di vista di Live Tech
Vien da chiedersi, allora: quanto è etico analizzare la vita e il comportamento di una persona per classificarla? Quanto è giusto “chiudere” una persona in un profilo al solo scopo di poter migliorare le vendite di un prodotto?
È difficile da stabilire, ma una risposta può essere data intanto dal come si analizzano vita e abitudini delle persone.
Se la persona – una volta profilata – diventa semplice utente X, e quindi, se le informazioni raccolte vengono rese anonime, impersonali, allora ciò che si sta facendo è utilizzare sì i suoi dati, ma rispettandone la privacy: questo rende il lavoro sui big data sicuramente “più etico”.
Un approccio che anche Live Tech ha adottato nel realizzare un sistema di raccomandazione nell’ambito del progetto FAIRE (FAshIon REplatforming hub), di cui è partner tecnico. Il progetto FAIRE, finanziato da Regione Lombardia, ha come obiettivo la costruzione di un hub tecnologico per incoraggiare e sostenere la trasformazione digitale del settore moda e design: il compito di Live Tech è stato quello di mettere in piedi un framework in grado di vendere un articolo non tanto aiutando il consumatore a trovarlo, quanto “aiutando” l’articolo stesso a raggiungere il consumatore.
Tutto questo a partire da dati raccolti e già mascherati, quindi nel pieno rispetto della persona-utente che li ha forniti.
L’Intelligenza Artificiale può dirsi etica oppure no?
Quindi tornando al quesito iniziale, l’Intelligenza Artificiale può dirsi etica oppure no? L’uomo ha tutti gli strumenti a sua disposizione per fare di tale tecnologia un valido alleato e non un mostro incontrollabile. Perché se è vero che, a volte, il “pensiero artificiale” può essere “ancora più giusto”, in quanto si attiene a fatti (dati) oggettivi e astrae la profilazione da valutazioni personali (quindi da eventuali pregiudizi), è altrettanto vero che l’utente non può essere considerato un mero complesso di dati da incrociare e interpretare. E la capacità umana di saper guardare oltre i numeri, oggi, è ancora fin troppo importante.
Oggi il gran lavoro da fare è quello di imparare a bilanciare le potenzialità dell’una e dell’altra intelligenza, assegnando a ciascuna il giusto peso e ruolo. Ciò va fatto senza dimenticare che, in ogni caso, il fine etico o meno dell’AI dipende dall’utilizzo che l’uomo ne fa.
Perciò, se proprio volessimo farci spaventare da qualcosa, forse più che del mostro bisognerebbe aver paura dell’uomo dottor Frankenstein e della sua etica; ma questa è un’altra storia.
Contenuto elaborato da Stefania Severini, Comunicazione Live Tech (partner Faire Hub).