La Difesa USA vuole una Artificial Intelligence in grado di giustificarsi

La scorsa settimana, scatenando una notevole eco mediatica, le cronache americane hanno riportato due notizie riguardanti l’impiego delle tecnologie di intelligenza artificiale nel dominio della sicurezza e della difesa.

Partiamo da quella che ha avuto maggior eco, probabilmente perché ha avuto come protagonista Amazon e il suo software di riconoscimento facciale Rekognition.

Secondo quanto cita testualmente il primo paragrafo della pagina italiana di Amazon “Amazon Rekognition semplifica l’aggiunta di funzionalità di analisi di immagini e video alle applicazioni. È sufficiente fornire un’immagine o un video all’API Rekognition e il servizio può identificare oggetti, persone, testo, scene e attività, oltre che rilevare eventuali contenuti non appropriati. Amazon Rekognition offre inoltre analisi facciale ad elevate precisione su immagini e video. È possibile rilevare, analizzare e confrontare volti per diversi casi d’uso, ad esempio verifica degli utenti, conteggio delle persone e pubblica sicurezza.”

Ed è forse proprio sulla base delle ultime due parole che l’American Civil Liberties Union (ACLU) ha deciso di verificare la qualità di Amazon Rekognition (un test che ha richiesto un investimento di soli 12 dollari).

Ha confrontato 25mila foto segnaletiche presenti in un database pubblico con le fotografie dei 535 senatori e deputati americani attualmente in carica. Impostando un livello di confidenza pari all’80% (leggasi livello di certezza che il software ha determinato), Amazon Rekognition ha segnalato ben 28 corrispondenze.

Si tratta tecnicamente di falsi positivi, ovvero di politici che sono stati erroneamente associati a foto di schedati presenti nell’archivio. Un palese errore che diventa ancora più clamoroso se si considera che i falsi positivi hanno riguardato i politici di colore in modo proporzionalmente più significativo rispetto ai politici bianchi…

La risposta di Amazon è sintetizzabile nel seguente concetto “la soglia di confidenza dell’80% è appropriata per il riconoscimento di oggetti, mentre per riconoscere le persone è consigliabile considerare il 95%”. Come prevedibile, la dichiarazione non è servita a placare la polemica facendo emergere in modo ancora più evidente perplessità e proteste contro gli evidenti bug di un software potenzialmente in grado di condizionare la libertà di ognuno di noi.

darpa-blockchain-sea-hunter-e1476110203330

Il secondo fatto riguarda la DARPA, l’agenzia di ricerca del Ministero della Difesa USA che ha avviato un bando per finanziare la terza ondata (generazione) di soluzioni di intelligenza artificiale.

Per capire meglio, pur rischiando un’eccessiva banalizzazione di come funzionano tecnologie così complesse, qualche esempio può aiutare a comprendere gli obiettivi della DARPA. La maggior parte delle tecnologie di intelligenza artificiale ricade in quella che viene definita come “prima ondata” e comprende principalmente software basati su regole, come quelli capaci di sfidarci a scacchi.

La seconda generazione dell’intelligenza artificiale, invece, si basa su algoritmi che “apprendono” (il cosiddetto machine learning): estraggono da un ricco campione di esempi le logiche che poi utilizzano per fornire una risposta. Così funzionano i software di riconoscimento delle immagini, che sanno individuare un gatto perché hanno “macinato” centinaia di immagini di gatti, associate alla parola gatto. Questi algoritmi sono però delle “black box” e, dunque, non sapremo mai perché l’algoritmo ha associato o no un gatto ad una immagine.

La DARPA ora ha ambizioni molto più elevate e finanzierà la ricerca di nuove tecnologie in grado di motivare i meccanismi e le logiche che usano per ragionare.

Non solo i nuovi algoritmi dovranno cioè riconoscere la presenza di un gatto in una foto, ma dovranno essere in grado di spiegare questa deduzione, dicendo ad esempio che si tratta di un animale a quattro zampe, con coda e pelliccia, di determinate dimensioni, ecc..

Potremmo così capire perché il volto di un innocente senatore è stato associato a quello di un pericoloso criminale. E comprendere quindi come migliorare il risultato finale aggiustando la logica della intelligenza artificiale.

PS:  Nel frattempo, come già scritto più volte, l’opinione di chi scrive propende convintamente per l’utilizzo dell’intelligenza artificiale, anche nel dominio della difesa e sicurezza, purché nella piena consapevolezza dei vantaggi e dei limiti che possono derivarne. In sintesi: maneggiare con cura !!!

Foto DARPA e werb

 

 

Eugenio Santagata, Andrea MelegariVedi tutti gli articoli

Eugenio Santagata: Laureato in giurisprudenza presso l'Università di Napoli e in Scienze Politiche all'Università di Torino, ha conseguito un MBA alla London Business School e una LL.M alla Hamline University Law School. Ha frequentato la Scuola Militare Nunziatella a Napoli e l'Accademia Militare di Modena. Da ufficiale ha ricoperto ruoli militari operativi per poi entrare nel settore privato dando vita a diverse iniziative nel campo dell'hi-tech. E' stato CEO di CY4Gate e Vice Direttore Generale di Elettronica. Dall’aprile 2021 è CEO di Telsy. --- Andrea Melegari: Laureato in Informatica all'Università di Modena, è specializzato in tecnologia semantica a supporto dell'intelligence. Ha insegnato per oltre 10 anni all'Accademia Militare di Modena ed è Senior Executive Vice President, Defense, Intelligence & Security di Expert System. E' stato Chief Marketing & Innovation Officer di CY4Gate e membro del CdA di Expert System, CY4Gate e Expert System USA. Dal luglio 2021 è manager di Fincantieri Next Tech.

Login

Benvenuto! Accedi al tuo account

Ricordami Hai perso la password?

Lost Password

My Agile Privacy
Questo sito utilizza cookie tecnici e di profilazione. Cliccando su accetta si autorizzano tutti i cookie di profilazione. Cliccando su rifiuta o la X si rifiutano tutti i cookie di profilazione. Cliccando su personalizza è possibile selezionare quali cookie di profilazione attivare.
Attenzione: alcune funzionalità di questa pagina potrebbero essere bloccate a seguito delle tue scelte privacy