Intelligenza Artificiale e discriminazione (1/2)

COSA SUCCEDE QUANDO LA MACCHINA IMPARA DALLE SCELTE UMANE

«Notevole mobilità della faccia e delle mani; l’occhio piccolo, errabondo, mobilissimo, obliquo di spesso; folto e ravvicinato il sopracciglio; il naso torto o camuso, scarsa la barba, non sempre folta la capigliatura, fronte quasi sempre sfuggente […] padiglione dell’orecchio che si inserisce quasi ad ansa sul capo». Quella che a molti può sembrare la descrizione del protagonista del celebre cartone animato Cattivissimo me è in realtà quello che, secondo lo studioso Cesare Lombroso, corrisponderebbe all’identikit del ladro per eccellenza, un individuo portato per natura alla delinquenza (L’uomo delinquente, 1876).
Considerato il padre della criminologia moderna, Lombroso è noto per aver sostenuto la tesi per cui i comportamenti criminali sarebbero determinati da predisposizioni di natura fisica e anatomica, nonché ereditaria. Sebbene le teorie dello psichiatra e antropologo abbiano avuto larga diffusione fra i sociologi e giuristi a cavallo del XIX e XX secolo, al giorno d’oggi appaiono posizioni decisamente azzardate, prive di reale fondamento scientifico. In parole semplici, anche se il vostro vicino di casa assomigliasse al protagonista di Cattivissimo me sono certa che dormireste sonni tranquilli, senza temere che la sua pelata lucida o le orecchie a sventola possano celare un temibile delinquente. Eppure, l’uomo del XXI secolo, nativo tecnologico, sembra non aver abbandonato del tutto queste passate (e pericolose) teorie!

A tal proposito, risale alla scorsa estate la notizia – proveniente dalla Harrisburg University, una delle università leader nel settore STEM (scienza, tecnologia, ingegneria e matematica) – dello sviluppo di un software in grado di predire, in base a un’analisi dei tratti somatici del viso di una persona, se quest’ultima possa essere un attuale o potenziale criminale. Secondo i ricercatori coinvolti nel progetto, l’intelligenza artificiale in questione sarebbe in grado di affiancare le forze dell’ordine nei loro compiti di difesa della sicurezza pubblica, fornendo risposte con un tasso di precisione maggiore all’80%. Fortunatamente, grazie all’intervento di numerosi esperti del settore, la ricerca non ha avuto seguito e ne è stata impedita la pubblicazione nelle riviste scientifiche. Qual è la ragione che ha portato il mondo accademico a rizzare le antenne e far regredire un simile progetto? Le motivazioni di tale scelta risiedono nei rischi di discriminazione insiti in un utilizzo avventato dell’intelligenza artificiale. Facciamo alcuni passi indietro per comprendere la reale portata della questione e rispondiamo alla seguente domanda:

Cos’è e come funziona l’intelligenza artificiale (AI)?

Spiegare in termini univoci cosa sia un’AI risulta piuttosto difficile, dato che, ad oggi, non esiste una sola definizione di intelligenza artificiale universalmente accettata e condivisa all’interno della comunità scientifica. Ciononostante, tra le nozioni utilizzate dagli esperti del settore emergono alcuni elementi comuni: il concetto di intelligenza artificiale viene infatti applicato a entità artificiali in grado di comprendere, acquisire e raccogliere informazioni dall’ambiente circostante e capaci di adattarsi e trovare soluzioni a situazioni imprevedibili, interagendo in modo così simile al comportamento umano da rendere davvero complessa la distinzione tra essere umano ed entità meccanica. L’AI opera quindi processando una quantità enorme di dati che vengono forniti dal programmatore, riconoscendo alcune caratteristiche dell’ambiente in cui è inserita e dei dati ottenuti, per restituire infine risultati e svolgere compiti relativamente complessi. In aggiunta, i dispositivi di AI più avanzati (machine learning, deep learning), hanno la possibilità di “apprendere” dal contesto in cui sono utilizzati e dagli errori fatti, arrivando a modificare i propri meccanismi di funzionamento così da adeguare e perfezionare in modo autonomo le proprie azioni, in termini non sempre prevedibili, ma sempre funzionali. Per fare un esempio, come visto in un recente post di DeltaScience, le tastiere predittive degli smartphone utilizzano il machine learning e apprendono come correggere le parole che scriviamo in maniera errata grazie all’osservazione di quelle che utilizziamo più spesso nei nostri messaggi.

Detto questo, il problema si fa ora più chiaro: che succede se i dati forniti alla macchina sono affetti da pregiudizio ab origine? Il rischio risulta inoltre aumentato nei sistemi di deep learning e machine learning, dove l’intelligenza artificiale apprende e corregge in maniera autonoma le proprie decisioni, sulla base di associazioni statisticamente efficaci ma di cui è difficile prevedere l’esito e comprenderne il processo generativo. Sebbene le AI vengano diffusamente percepite come tecnologie oggettive e neutrali, ad alto margine di precisione, la letteratura scientifica ha in più occasioni dimostrato come invece non possa escludersi che le scelte adottate dalle AI possano in realtà essere affette da errori e pregiudizi (cosiddetti ‘bias’).  Facciamo alcuni esempi per capire meglio.

Restando nell’ambito del diritto penale, sulla falsa riga di quanto avvenuto alla Harrisburg University, alcune ricerche statunitensi [5] hanno evidenziato come la valutazione della pericolosità sociale degli imputati effettuata con l’ausilio di un’AI, al fine di decidere la custodia o la scarcerazione in attesa di giudizio, possa in alcuni casi risultare condizionata da un pregiudizio di natura etnico-razziale: mettendo in relazione le valutazioni di rischio svolte dall’AI e la condotta adottata dai soggetti negli anni successivi, si è evidenziato come indagati o condannati afro-americani avessero ricevuto l’indicazione di un tasso di pericolosità sociale quasi doppia rispetto a quelli caucasici; dato poi smentito dal comportamento concretamente tenuto negli anni successivi. La tematica del razzismo non è una problematica nuova trattando di tecnologia: lo sa bene Microsoft che, nel 2016, aveva rilasciato su Twitter un chatbot (un software progettato per simulare una conversazione con un essere umano) di nome Tay, programmato per evolvere il proprio patrimonio di informazioni sulla base di quanto appreso dalle conversazioni svolte con gli utenti reali. L’esito dell’esperimento fa riflettere: in meno di 24 ore l’AI venne ritirata dalla piattaforma per la forte accezione razzista dei propri commenti.

Gli ambiti del penale e dei social network non sono però gli unici interessati dall’utilizzo di queste nuove tecnologie. L’intelligenza artificiale è largamente diffusa anche nella sfera della medicina e della salute, del lavoro, della gestione dei dati sensibili, dell’industria… riuscite ad applicare quanto sinora detto anche a questi settori? Quali possono essere le conseguenze di un utilizzo non accorto dell’AI in questi delicati contesti? E quali sono le soluzioni proposte e presentate dal diritto?

Per saperlo non perdete la continuazione di questo articolo, disponibile sul sito di DeltaScience lunedì prossimo!

FONTI:

Le fonti consultate per la realizzazione di questo articolo verranno riportate in coda al secondo articolo della serie “Intelligenza Artificiale e discriminazione”.

Credits: photo by cottonbro on Pexels

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale – Non opere derivate 4.0 Internazionale.

Rispondi