Intelligenza Artificiale e discriminazione (2/2)

COSA PUò SUCCEDERE QUANDO LA MACCHINA IMPARA DALLE SCELTE UMANE?

Lo scorso lunedì abbiamo spiegato cos’è e come funziona l’intelligenza artificiale, tecnologia il cui utilizzo si sta diffondendo a macchia d’olio nei vari settori del sapere e che fa ormai parte della nostra quotidianità a tutti gli effetti. Allo stesso tempo però – in riferimento al delicato contesto del diritto penale – abbiamo visto come una simile opportunità celi alcuni rischi da non sottovalutare, primo fra tutti quello discriminatorio.

Il discorso però non termina qui: le conseguenze di un utilizzo non accorto dell’AI possono riflettersi in molti altri campi, come quelli della salute o del lavoro. Ad esempio, negli ultimi anni, la medicina ha sempre più spesso fatto ricorso a dispositivi tecnologici a fini diagnostici ma – come visto anche nel nostro articolo sulla medicina di genere – allo stato dell’arte l’ambito sanitario adotta ancora una visione androcentrica, che penalizza categorie differenti dal sesso maschile. L’insieme di questi due elementi può portare a esiti spiacevoli e addirittura pericolosi per il benessere fisico di alcuni soggetti: si pensi, a titolo esemplificativo, alla progettazione di dispositivi tecnologici in grado di diagnosticare in via preventiva l’insorgenza del morbo di Parkinson nei pazienti. A tal proposito, è stato infatti osservato come, sebbene la sintomatologia femminile di questa patologia risulti differente da quella maschile, la maggior parte dei partecipanti agli studi per l’implementazione di questi dispositivi risulti essere composta da uomini, fattore che può portare alla realizzazione di macchinari accurati nel rilevare i sintomi del Parkinson più frequentemente manifestati nel sesso maschile, ma non quelli tipici femminili. Anche il campo dell’occupazione non è immune da simili conseguenze: hanno sicuramente destato scalpore i fatti concernenti il colosso Amazon che, qualche anno fa, utilizzava un’AI per il recruitment dei propri dipendenti la quale non teneva in considerazione le candidature femminili per i ruoli di programmatore e altri posti di lavoro ad alto contenuto tecnologico. In quest’ultimo caso, il sistema era stato programmato per scegliere i candidati osservando i modelli di curriculum vitae dei soggetti selezionati dall’azienda negli anni precedenti – perlopiù appartenenti al sesso maschile – e l’AI aveva autonomamente tratto la regola che questi ultimi fossero più adatti a ricoprire il ruolo rispetto alle donne, scartando queste ultime a priori.

Chiaramente, il genere e l’etnia non sono le uniche categorie che possono essere penalizzate, ma gli esempi citati permettono di comprendere come l’intelligenza artificiale possa risultare altamente discriminatoria nei confronti di alcune categorie di persone. Detto questo, l’obiettivo di questo approfondimento non è certo quello di additare come nocivo l’utilizzo della tecnologia, quanto piuttosto quello di informare e far riflettere su aspetti spesso lasciati in ombra. Occorre infatti riconoscere le immense potenzialità che l’AI può offrire in termini di efficienza, benessere e progresso: ad oggi, l’utilizzo di questo tipo di tecnologia è diventato parte integrante dell’esistenza di ogni singolo individuo e indice di opportunità. Come fare allora a promuovere e adottare un doveroso approccio non discriminatorio e rispettoso dei diritti altrui in un simile contesto? La soluzione ce la offre il diritto: da qualche anno, sia a livello internazionale (UNESCO) che europeo (Unione Europea), non mancano le iniziative volte alla promozione di un approccio alla materia che tenga conto dei profili etici. Merita una menzione la proposta di regolamento n. 2021/0106 della Commissione Europea che ha previsto alcune disposizioni che mirano a offrire un’elevata tutela soprattutto nei casi di utilizzo di sistemi di AI «ad alto rischio», ovvero che «pongono rischi significativi per la salute e la sicurezza o per i diritti fondamentali delle persone». La proposta di regolamento si pone l’obiettivo di ridurre il rischio di discriminazioni tramite un sistema di garanzie procedurali, che richiede ai programmatori e alle aziende di fornire un quadro completo delle risorse computazionali usate per sviluppare, addestrare, sottoporre a prova e convalidare il sistema di AI, predisporre sistemi di monitoraggio e indicare eventuali effetti o impatti potenzialmente discriminatori. Da ultimo, ma non per importanza, visto il ruolo cruciale rivestito dal fattore umano nel programmare l’AI, è bene sposare un approccio interdisciplinare, tanto caro a noi di DeltaScience. Lavorare in team di professionisti in diverse discipline (informatica, ma anche diritto, psicologia, sociologia…) è certamente una risorsa che permette di combinare tutti gli ambiti di conoscenza coinvolti nelle decisioni da prendere: come gli oppositori del progetto della Harrisburg University ci hanno insegnato, il buonsenso umano e il confronto sono infatti qualità ancora indispensabili nell’uomo tecnologico del XXI secolo.

Per coloro che sono interessati all’approfondimento della tematica, si suggerisce infine la lettura dell’intervista a Stefano Quintarelli (condotta da Fabio Sindici), pubblicata su La Stampa il 15 ottobre 2020 e riportata da italianacontemporanea.org con il titolo “AI. Troppi miti”.

FONTI:

[1] Rodler, A. (2012), L’Uomo delinquente di Cesare Lombroso: tra scienza e letteratura», Criminocorpus, Intorno alle Archives d’anthropologie criminelle, 4. L’anthropologie criminelle en Europe. Retrieved December, 12, 2021, from http://journals.openedition.org/criminocorpus/1905 

[2] Harrisburgh University. HU facial recognition software predicts criminality. (n.d.). Retrieved December, 13, 2021 from https://archive.md/N1HVe

[3] BBC. Facial recognition to ‘predict criminals’ sparks row over AI bias (n.d.). Retrieved December, 13, 2021 from https://www.bbc.com/news/technology-53165286 

[4] Fasan, M. (2019), Intelligenza artificiale e pluralismo: uso delle tecniche di profilazione nello spazio pubblico democratico, BioLaw Journal – Rivista di BioDiritto, 1, 101-113.

[5] Casonato, C. (2020), Intelligenza artificiale e giustizia: potenzialità e rischi, Saggi – DPCE online, 3. Retrieved December, 14, 2021 from http://www.dpceonline.it/index.php/dpceonline/article/view/1082

[6] Peruzzi, M. (2021), Il diritto antidiscriminatorio al test di intelligenza artificiale, Labour and Law Issues, 7(1), 48-76.

[7] The Guardian. Tay, Microsoft’s AI chatbot, gets a crash course in racism from Twitter (n.d.). Retrieved December, 14, 2021 from https://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash-course-in-racism-from-twitter 

[8] Cirillo, D. et al (2020), Sex and gender differences and biases in artificial intelligence for biomedicine and healthcare, Npj Digit. Med., 3(81), 1-11.

[9] Logg, J. M. (2019), Using algorithms to understand the biases in your organization. Harvard Business Review. Retrieved December, 17, 2021 from https://hbr.org/2019/08/using-algorithms-to-understand-the-biases-in-your-organization

Credits: photo by rawpixel.com on Freepik

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale – Non opere derivate 4.0 Internazionale.
<a rel=”canonical” url=”intelligenza-artificiale-e-discriminazione-2”></rel></a>

Rispondi