Site icon DeltaScience

Ancora sulla IA. Sully, il fattore umano

sully AI
Tempo di lettura: 5 minuti

DeltaScience ha già affrontato il tema dell’intelligenza artificiale. Francesca Bortolin ha discusso il problema in un articolo pubblicato in due parti il 17 e il 24 gennaio scorso, dal titolo, Intelligenza artificiale e discriminazione. L’articolo presenta tutti gli ambiti in cui l’Intelligenza Artificiale trova efficace applicazione, e nella seconda parte discute i possibili usi maldestri di questa tecnologia.

Stefano Quintarelli, presidente del Comitato di indirizzo dell’Agenzia per l’Italia digitale, membro del gruppo di esperti della Commissione Europea sull’IA, però ci ricorda che non dobbiamo credere troppo alla letteratura e al cinema: la narrazione divulgativa delle macchine pensanti più o meno simili agli umani, i robot antropomorfi come Hal 9000 di Odissea nello spazio, è solo fantasia, che per ora ha pochissime possibilità di avverarsi. Le IA non provano emozioni e non sono senzienti. Se così ci sembra, è perché ci stanno imitando. Una IA che pare arrabbiata su Internet ha solo risucchiato nella sua memoria statistiche di pessimi comportamenti sulla rete. Il computer che “dipinge” un simil Van Gogh sta facendo operazioni matematiche e unendo milioni di punti senza sapere che si tratta di un’immagine.

In uno dei suoi racconti più famosi, La ricerca di Averroè, Borges immagina il filosofo islamico del XII secolo che si arrovella su due nomi che ricorrono nella Poetica di Aristotele: tragedia e commedia. Averroè non era mai entrato in un teatro: nel mondo medievale musulmano non esistevano. L’erudito finisce quindi per accostare erroneamente la tragedia al panegirico e la commedia all’anatema. L’equivoco di Averroè è simile a quello dell’IA. Occorre ricordare sempre che il modo di conoscere dell’IA si fonda su un enorme archivio di dati, confrontati ad altissima velocità e articolati da algoritmi, mentre l’intelligenza umana si fonda sull’esperienza del mondo fisico e sull’evoluzione, sull’astrazione intellettuale e sui processi inconsci.

Dice Quintarelli: «Una IA ben nutrita di dati e allenata con un gran numero di paradossi, in realtà, potrebbe riconoscerne uno e anche formularne degli altri simili. Ma, se si trova di fronte un paradosso che non rientra nei suoi schemi, va in deficit di comprensione (…). Lo stesso vale per il linguaggio metaforico. Quando diciamo di “allenare” un computer, a nostra volta, usiamo una metafora, spostiamo dalla nostra esperienza di esseri biologici un termine preso dall’attività atletica. Ma l’IA non impara e non si allena. Quando gestisce un paradosso non ne comprende il concetto, lo paragona solo ad altre migliaia di esempi che ha in memoria. Soprattutto, il paradosso non è per la macchina un veicolo di nuova conoscenza»

Naturalmente questo non esclude la dannosità che l’IA usata male può recarci. Anche se non senzienti, le IA pongono problemi etici e scelte politiche e modificano già i nostri comportamenti, come ha osservato Francesca Bortolin. Prevedendo i nostri gusti, su basi statistiche, gli algoritmi sui cui si basano le IA finiscono per cambiarli. Malignamente usati, possono avere influenze sulle opinioni e generare fake news.

Ma quello che qui preme evidenziare è la differenza che esiste tra il modo umano di conoscere (e prendere decisioni) e il modo di una IA. Ecco una clip di pochi minuti tratta dal film Sully con Tom Hanks per la regia di Clint Eastwood. Il film è del 2016 e si riferisce ad un fatto di cronaca realmente accaduto. Così lo presenta Wikipedia.

l comandante Chesley Sullenberger, detto “Sully”, è un esperto pilota di linea ai comandi di un aereo che decolla la mattina del 15 gennaio 2009 dall’aeroporto LaGuardia di New York ed impatta contro uno stormo di uccelli pochi istanti dopo, perdendo l’utilizzo di entrambi i motori. Il comandante si rende conto che l’unico modo per cercare di salvare le persone a bordo (155 tra equipaggio e passeggeri) è tentare un ammaraggio nel fiume Hudson, e riesce nell’impresa senza provocare vittime. Sully viene acclamato e considerato un eroe dall’opinione pubblica; tuttavia viene posto sotto inchiesta dall’ente aeronautico per non aver seguito il protocollo di volo ed aver messo in grave pericolo l’equipaggio e i passeggeri. Anche l’assicurazione lo accusa di aver causato la distruzione dell’aereo…

Qui si discute su come ragiona una macchina, un simulatore di volo, e come ragiona una mente umana, il pilota, in un momento critico (“non un videogame ma vita e morte”, dice il copilota).

Durata ⏱ 3’ 03″

FONTI

Federico Faggin, Silicio, Mondadori, Milano 2019

Stefano Quintarelli, “Troppi miti sull’Intelligenza artificiale”, intervista di Fabio Sindici per La Stampa dell’ ottobre 2020, riportata in italianacontemporanea.org.

Stefano Quintarelli, “Il digitale e le sfide politiche del Ventunesimo secolo”, Breve saggio pubblicato su Il Foglio agosto 2018 riportato in Italianacontemporanea.org

Credits: Photo by geralt from Pixabay


Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale – Non opere derivate 4.0 Internazionale
Exit mobile version