Legame tra intelligenza artificiale e diritti umani, quali rischi?

 

 

Roma, 4 Aprile 2022 – «Lo sviluppo dell’intelligenza artificiale è una grande opportunità per rafforzare le economie e offrire risposte a problemi sociali urgenti, ma c’è il rischio che l’utilizzo di alcune sue applicazioni distorte, possano minare il pieno godimento dei diritti umani, il funzionamento delle istituzioni democratiche, l’applicazione dello Stato di diritto». Con queste parole il sottosegretario agli Esteri, Benedetto Della Vedova, ha aperto i lavori dell’evento sul tema organizzato alla Farnesina e co-organizzato dalla presidenza italiana del Comitato dei ministri del Consiglio d’Europa e dal Consiglio d’Europa, parte del programma di appuntamenti del semestre di presidenza italiana.

Della Vedova, attenzione alle discriminazioni e diseguaglianze

«L’opacità dei processi decisionali automatizzati (ADM – Automated Decision Making), soprattutto quelli legati ad algoritmi in grado di generare discriminazioni e diseguaglianze» – dichiara il sottosegretario agli Esteri – «va diradata prima che il machine learning senza human oversight, vale a dire non supervisionato, prenda il sopravvento».

Il sottosegretario ha ricordato come «algoritmi creati per la moderazione di contenuti online hanno generato, direttamente o indirettamente, dinamiche di censura su un ampio spettro di spazi di espressione, dai contenuti religiosi a questioni afferenti alla diversità di genere. I sistemi di intelligenza artificiale creati per il monitoraggio di attività illegali sono utilizzati per tracciare e prendere di mira minoranze, gruppi sociali, individui e difensori dei diritti umani».

Concentrare sforzi per governare rischi

Secondo Della Vedova, dunque, è necessario concentrare gli sforzi sulla definizione e attuazione di norme e strumenti per governare questi rischi. «Questo è un momento difficile per il multilateralismo» – sottolinea Della Vedova – «ma proprio per questo non bisogna desistere dal lavorare per il perseguimento dei suoi ideali».

«Non si tratta» – aggiunge – «di frenare l’innovazione ma di creare un level playing field all’interno dei nostri mercati di riferimento per poi esportare su scala globale il modello di valori cui s’ispira». Dunque la parola chiave, ha concluso, è «”algovernance” per prevenire i rischi correlati all’intelligenza artificiale senza compromettere i processi innovativi e le loro positive ricadute sociali ed economiche».

Fusacchia, innovazione fondamentale per difendere diritti umani

«È necessario che vi sia formazione nella Pubblica amministrazione nell’approccio alle intelligenze artificiali, altrimenti si rischia che il quadro regolatorio si blocchi nel momento dell’applicazione». Così Alessandro Fusacchia, deputato del Gruppo misto eletto nella Circoscrizione estero, nel corso dell’evento riguardante il legame tra intelligenza artificiale e diritti umani alla Farnesina, realizzato nell’ambito del semestre di presidenza italiana del Comitato dei ministri del Consiglio d’Europa.

«Nella discussione sull’intelligenza artificiale si sta creando una polarizzazione; da un lato c’è chi sostiene che si debba pensare solo all’innovazione, dall’altro chi ritiene che ci si debba occupare solo dei diritti umani. Questa dicotomia è falsa e pericolosa. L’innovazione, se governata e indirizzata, è fondamentale per aiutare a difendere i diritti umani».

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *