Intelligenza artificiale, tre trappole da evitare

Fonte: Corriere della Sera

di Gustavo Ghidini e Daniele Manca

L’Unione Europea si appresta a varare regole che saranno efficaci in tutti gli Stati membri. Ma in Italia non se ne parla


Il mese scorso nel Regno Unito un autista nero di Uber si è visto disattivare il proprio account perché il software di scansione dei volti della società non è riuscito a riconoscerlo ripetutamente. La questione è finita in tribunale. Ma ci dovremmo chiedere in quante e quali occasioni ormai è l’intelligenza artificiale (AI) a prendere decisioni sulla nostra vita. Programmi di machine learning guidano procedure sanitarie e mediche. Molte banche usano software di AI per decidere il merito di credito, se prestare soldi o no a persone e aziende. Persino nei tribunali e negli uffici giudiziari per sentenze giuridiche utilizzano programmi che autoimparano. Il problema come sappiamo è che quei programmi risentono di tutti i pregiudizi di chi li ha scritti all’origine. Non è un caso che i consiglieri scientifici di Joe Biden stiano mettendo a punto una sorta di «Carta dei diritti» analoga a quella che accompagnò la Costituzione americana dei padri fondatori.
La novità è che l’Europa, più pronta a regolare che investire nelle nuove tecnologie, ha già prodotto una nuova importante proposta in materia di intelligenza artificiale ora in discussione. Il primato dell’Unione sulle regole è stato già dimostrato in passato dal Regolamento generale sulla protezione dei dati (Gdpr). La Commissione ha voluto iniziare a tracciare il confine tra lecito e illecito negli «usi» della AI. Appena le regole riceveranno il sì del Parlamento europeo saranno immediatamente efficaci in tutti gli Stati membri. È tempo che anche in Italia se ne cominci a discutere.
Nella proposta della Commissione, il Regolamento distingue tre livelli di rischio determinato da possibili applicazioni («usi») della AI, i quali richiedono un intervento giuridico. Fuor di battuta, vien fatto di evocare la partizione della Divina Commedia, anche per la implicita ma chiarissima ispirazione etica che quella tripartizione guida.

Rischio inaccettabile
Il primo livello è quello del rischio «assoluto», che rende la applicazione illecita e quindi vietata. In questo inferno stanno usi che violano sia la dignità sia la sicurezza e la salute fisica e psichica. E così vengono sostanzialmente proibiti, ad esempio, sistemi basati su AI che impieghino tecniche subliminali capaci di falsare inconsciamente il comportamento di una persona, provocando danni fisici o psicologici a quella o altra persona. E sono altresì, e ovviamente, vietate applicazioni come killer robot, nuove sostanze venefiche, impianti sottocutanei per influire sulla psiche umana, e simili «meraviglie». Non sembrino esagerate queste preoccupazioni che animano il proposto Regolamento: tecnici e scienziati sono tipicamente «fissati», come innamorati, nella ricerca del successo, e non hanno spesso la mente pre-occupata da problemi etici. Uno dei padri della bomba atomica, il fisico Hans Bethe, testimoniò nel 1954, negli Oppenheimer Hearings, che i problemi morali sorsero in loro dopo le stragi di Hiroshima e Nagasaki. E il professore Fritz Haber, premio Nobel per la chimica nel 1918, non si pose problemi etici, né mai rinnegò una sua celebre creatura: quel cosiddetto «gas mostarda» a base di cloro che sterminò migliaia di francesi sulle trincee di Ypres (donde il più noto e sinistro nome «iprite»).
Ancora, verranno banditi sistemi adottati da autorità pubbliche per valutare e classificare, con un «punteggio sociale» (social scoring), la affidabilità delle persone sulla base del loro comportamento sociale in contesti sociali estranei a quelli in cui i dati sono stati originariamente generati o raccolti. E ciò qualora detti sistemi portino a trattamenti discriminatori di determinate persone o interi gruppi di persone non giustificati o sproporzionati rispetto al comportamento sociale «controllato». Saranno altresì banditi sistemi di identificazione biometrica a distanza «in tempo reale» in spazi accessibili al pubblico da parte delle forze dell’ordine. A meno che tale uso sia strettamente necessario per prevenire una minaccia imminente alla vita o alla sicurezza fisica delle persone fisiche, o un attacco terroristico, ecc.

Rischio accettabile: obblighi di precauzione, controllo, informazione
In più alto loco, a riveder le stelle, stanno applicazioni foriere di un rischio alto ma «accettabile», descritte nell’Allegato III della proposta. Accettabile nel senso che potranno essere messe sul mercato solo a seguito di una preventiva e rigorosa valutazione di conformità a stringenti requisiti, che coprono l’intero ciclo di vita dell’applicazione algoritmica, dalla progettazione alla realizzazione. In particolare, e principalmente, si dovrà creare e mantenere attivo un sistema di risk management; si dovrà assicurare la supervisione da parte di persone fisiche (human oversight) del funzionamento del sistema; si dovrà documentare il processo di sviluppo di un determinato sistema di AI e il funzionamento dello stesso; si dovranno infine osservare obblighi di trasparenza verso gli utenti sul funzionamento del sistema.
In questa categoria rientrano anche ipotesi di rischio pur sempre sensibile ma ancora minore — un «cerchio» più vicino al paradiso. Le corrispondenti applicazioni saranno lecite purché solo il rischio sia dichiarato, e quindi (implicitamente) «gestibile» con accorti comportamenti umani. A questa categoria appartengono, ad esempio, applicazioni di AI nella chirurgia assistita da robot; sistemi di valutazione dell’affidabilità delle informazioni fornite da persone fisiche per prevenire, investigare o prevenire reati; sistemi per il trattamento e l’esame delle domande di asilo e visto; sistemi per assistere i giudici (qui torneremo fra breve). Ancora, nel caso di uso di chatbot o di assistenti vocali, l’utente dovrà essere informato che non sta interagendo con un essere umano, così come dovrà sapere se stia guardando un video generato con deepfake.

Rischio minimo
Pienamente liberi saranno infine altri sistemi di AI sostanzialmente «innocui» rispetto alla sicurezza alle libertà dei cittadini. Essi potranno quindi essere sviluppati e utilizzati senza specifici, particolari obblighi giuridici (la Commissione tuttavia raccomanda l’adesione volontaria a codici di condotta per migliorare la trasparenza e l’informazione). Si tratta, ad esempio, di sistemi di manutenzione predittiva, i filtri anti-spam e contro le telefonate indesiderate, i videogiochi sviluppati sfruttando sistemi di AI. Secondo la Commissione, la stragrande maggioranza dei sistemi di AI attualmente utilizzati all’interno della Ue rientrerebbe in quest’ultima fascia. La strada è appena iniziata. Ma non intervenire rapidamente sarebbe già una scelta.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.