Post

Intelligenza artificiale, sicurezza, responsabilità, etica
L’uomo al centro tra etica e tecnologia

L’esordio della definizione di Intelligenza Artificiale, IA, risale al 1956 nel corso di un convegno che si svolse in  America, per presentare i primi programmi capaci di effettuare ragionamenti logico-matematici. La definizione, valida ancora oggi, indica un ramo dell’informatica che consente la programmazione e progettazione di sistemi hardware e software capaci di dotare le macchine di caratteristiche considerate tipicamente umane. Dagli anni Settanta l’evoluzione del concetto di Intelligenza Artificiale si è realizzata, nel corso dei decenni successivi, con declinazioni diverse dalle primordiali applicazioni nel solo ambito informatico. La biologia, la medicina, la robotica sono i campi di maggiore applicazione della IA la cui presenza sempre più pervasiva, caratterizza oggi la vita quotidiana. L’utilizzo di smartphone e di sistemi di sicurezza a riconoscimento vocale che si basano su algoritmi di Intelligenza Artificiale,  il settore automobilistico, nel quale le auto in grado di muoversi senza pilota sono già realtà, il mercato azionario, la programmazione di giochi, sono espressione concreta del notevole impatto che la IA esercita costantemente nelle nostre vite. L’ Intelligenza Artificiale  è passata dalla teoria alla pratica, uscendo dal laboratorio e incrociando le nostre strade. Il Machine Learning, la capacità di apprendimento automatico che consente a una macchina di svolgere una determinata azione anche se tale azione non è mai stata programmata tra quelle possibili, grazie allo sviluppo delle reti neurali artificiali, un modello matematico che si ispira alle reti neurali umane, consente di sviluppare algoritmi in grado di imparare dai propri errori.  L’Intelligenza Artificiale assume caratteristiche sempre più definite, sofisticate, reali traducendosi in tecnologie che mutano continuamente, rinnovandosi ogni due anni e che sono frutto di un sistema intelligente cha segue un diverso paradigma, non più teso alla emulazione dell’intelligenza umana ma a creare un sistema esso stesso intelligente, capace di interpretare l’ambiente e di prendere decisioni. Il salto relativo alla capacità decisionale della macchina, che sa percepire l’ambiente e interpretare i dati, deve sollecitare una attenta riflessione, con un approccio multidisciplinare,  sul rapporto dell’uomo con la macchina e sulle dinamiche di responsabilità nel processo decisionale. Il Segretariato Generale Della Difesa e Direzione Nazionale Degli Armamenti ha organizzato a Roma,  in collaborazione con il Pontificio Consiglio della Cultura in Vaticano, una giornata di studio sul tema “Intelligenza Artificiale, Sicurezza, Responsabilità, Etica” per introdurre elementi di riflessione sugli aspetti etici connessi alla responsabilità dell’uomo sulla macchina. Il Gen. C.A. Nicolò Falsaperna, Segretario Generale della Difesa e Direttore Nazionale degli Armamenti, ha introdotto e concluso il convegno  che si è svolto il 24 settembre nella Sala Conferenze “Paolo Caccia Dominioni” presso il Segretariato Nazionale della Difesa, al quale hanno partecipato il Ministro della Difesa Lorenzo Guerini, il Cardinal Gianfranco Ravasi, il Direttore del Laboratorio Nazionale Artificial Intelligence and Intelligence System Rita Cucchiara, lo studioso di Logica, Epistemologia e Filosofia Dominique Lambert, Padre Paolo Benanti, docente di Etica delle Tecnologie presso la Pontificia Università Gregoriana e Eva Thelisson, Chief Executive Officer dell’AI Transparency Insitute.  Preoccupazioni e nuove sfide”, le parole introduttive del Gen. Falsaperna, restituiscono la dimensione culturale legata alla diffusione della IA, le speranze e i timori con i quali è necessario confrontarsi in un approccio multidisciplinare e con una visione internazionale di cui si discute nella giornata di studio. Può una macchina essere cosciente? Può una macchina davvero capire? Può una macchina avere responsabilità? Sono le tre domande che sintetizzano, per il Segretario Generale della Difesa, i temi legati all’Intelligenza Artificiale che assumono una straordinaria importanza declinati sulle questioni della sicurezza personale, nazionale e militare, per garantire le quali occorrono “soluzioni di carattere giuridico che consentano ad un sistema di essere etico, di rispondere ai valori e ai diritti fondamentali sanciti dal diritto internazionale in materia di diritti umani”. UE e OCSE, insieme alle principali Organizzazioni Internazionali, hanno stilato le Linee Guida sull’Intelligenza Artificiale che prevedono il rispetto della legalità, perché l’IA deve tener conto di tutte le leggi e dei regolamenti applicabili, l’eticità in quanto l’IA deve assicurare l’adesione a principi e valori etici  e la robustezza, tecnica e  sociale, perché i sistemi IA possono causare danni non intenzionali. Il dibattito sugli aspetti etici e le implicazioni legali dell’impiego di sistemi dotati di IA è all’attenzione della Nato che nel settembre 2015 ha pubblicato un Rapporto, a cura del Comando che si occupa della trasformazione dei sistemi di difesa, in cui affronta in modo approfondito le ampie tematiche connesse all’argomento. L’Italia propone una sua strategia, una via italiana per l’Intelligenza Artificiale, contenuta in un documento di recente produzione frutto del contributo scientifico di 30 esperti nazionali, incaricati dal Ministero dello Sviluppo Economico,  tra i quali Rita Cucchiara, che insegna Sistemi di Elaborazione delle Informazioni all’Università di Modena e  all’Accademia Militare e che ha portato la sua testimonianza appassionata e appassionante, sul ruolo strategico dell’Italia teso a produrre Intelligenza Artificiale e non solo ad adottare quella prodotta dagli altri Paesi, in uno sforzo congiunto tra università, centri di ricerca e istituzioni italiane che fanno capo al Nuovo Laboratorio Nazionale delle Intelligenze Artificiali,  un network a cui fanno riferimento  52 gruppi di lavoro. Il modello italiano, apprezzato ed esportato in tutto il mondo, valorizza le diverse intelligenze artificiali,  pur ponendo sempre l’uomo al centro di un processo produttivo che ha straordinarie potenzialità, che ha già sorprendenti realtà, ma che deve essere e rimanere al servizio dell’uomo, per portare “i nostri valori e le nostre conoscenze al servizio dell’umanità”. La ricerca è fondamentale,  da  sviluppare perché le tecnologie non sono ancora mature in tutti i campi e c’è ancora un percorso importante da realizzare per arrivare alla formulazione di una Intelligenza Artificiale capace di meritare la fiducia di chi la adotta e  di chi la utilizza.  Oggi questo è possibile solo in alcuni casi specifici, come nei sistemi di riconoscimento delle anomalie dove non è necessaria la supervisione umana. La ricerca italiana è apprezzata e  riconosciuta a livello internazionale, sebbene non sia finanziata in maniera adeguata. La fuga dei cervelli all’estero ne è una naturale conseguenza. Tra gli esperti che hanno formulato le proposte per una strategia italiana all’Intelligenza Artificiale, Padre Paolo Benanti delinea i contorni, necessariamente aperti, del fenomeno IA da un osservatorio importante, l’Etica della tecnologia, il luogo di un pensiero che è legittimato a porre domande senza dover necessariamente dare risposte,  nella consapevolezza che oggi si aprono nuovi scenari determinati da una  macchina, fino a poco tempo fa interamente programmata dall’uomo, ora in grado di imparare e quindi di sottrarsi, in un quadro di assoluta imprevedibilità, al controllo che l’uomo poteva esercitare. Conoscenze e competenze si trasmettono alle generazioni future attraverso le tecnologie, che sono fondamentali e soprattutto che hanno sempre accompagnato la vita dell’uomo, ma che l’uomo deve poter continuare a controllare con una  etica della tecnologia che ne affermi la sua  assoluta centralità  in ogni tipo di processo tecnologico. Il  tema dell’autonomia della Intelligenza Artificiale e delle sue applicazioni soprattutto in ambito militare  è stato posto dal Ministro della Difesa Lorenzo Guerini  che ha invitato a riflettere sulle “significative implicazioni etiche e legali legate alla sempre più realistica capacità delle macchine di ragionare come uomini e che in un prossimo futuro lo stesso processo decisionale per la scelta dell’uso della forza potrebbe essere affidato ad un sistema d’arma dotato di un elevato livello di autonomia”, pericolo che richiama l’urgenza di regolamentare fenomeni che nascondono pericolose incognite. L’osservatorio, sia esso specificamente militare e attinente alla difesa e sicurezza nazionale, sia esso scientifico applicato alla ricerca, esprime una visione condivisa sulla necessità di incontro tra tecnologia ed etica che deve accompagnare la ricerca. La lectio magistralis del cardinal Gianfranco Ravasi, Presidente del Pontificio Consiglio della Cultura in Vaticano, pone l’accento sul ruolo insostituibile dell’Intelligenza Artificiale in alcuni ambiti applicativi in cui migliora le condizioni di vita dell’uomo, nella medicina, nelle funzioni gestionali e amministrative, in alcune attività lavorative dove l’utilizzo della robotica solleva dai lavori usuranti o dalle attività reiterate prive di senso. Il tema dell’ Intelligenza Artificiale dotata di capacità decisionale autonoma, autoreferenziale  fa porre domande alle quali ancora non si può dare risposta perché riguardano gli effetti che l’autonomia decisionale potrebbe avere sulle creature umane. Il cardinal Ravasi parla di un algoritmo dai contorni aperti, con ricadute di tipo etico e umanistico ancora non prevedibili ma che possono essere  affrontate con il ricorso alla simbolicità, all’incontro tra realtà diverse tra loro che possano dialogare favorendo sempre una risposta umana. L’intelligenza artificiale non può essere dotata di autocoscienza con risposte che possono essere simili alle opzioni etiche di una persona umana capace di uno sguardo diverso e profondo. Il presidente del Pontificio Consiglio della Cultura, per dare concretezza al suo pensiero, rievoca la scena di un film incentrata su un obiettivo da colpire ad opera di un drone, che lo ha scelto autonomamente e di un aereo guidato da un pilota, che nel momento decisivo presenta una variabile impazzita, una bambina con in mano un fascio di fiori che compare sulla scena, alterandola,  sfuggendo ad ogni previsione e ponendo i due mezzi nella condizione di assumere una decisione.  Alla domanda su quale sarà la decisione assunta dalla persona e quale invece quella presa dalla macchina, oggi non si è in grado di rispondere. La riflessione impone la necessità di attenzioni alle questioni etiche, con una  visione culturale ampia che non perda di vista l’orizzonte antropologico di riferimento. L’uomo, al centro di tutto.