L’Europa ha varato le linee guida sull’intelligenza artificiale, completando così un lungo percorso che aveva portato l’équipe di 52 esperti a redigere una bozza preliminare a dicembre dello scorso anno.
L’obiettivo del documento consiste nel garantire un impiego dell’IA nel massimo rispetto dell’etica, nonché delle leggi e dei regolamenti in vigore all’interno dell’Unione Europea. L’intelligenza artificiale deve essere “affidabile”, “sicura”, “degna di fiducia” (nel testo originale viene definita “trustworthy”), e affinché lo sia deve soddisfare tre requisiti fondamentali:
- Essere legale, ovvero rispettare le leggi e i regolamenti in vigore a livello nazionale, sovranazionale e internazionale: il punto è importante, in quanto le normative non dicono solo ciò che NON si può fare, ma anche ciò che si DOVREBBE o POTREBBE fare. Nella Carta dei Diritti Fondamentali dell’UE sono ad esempio presenti alcuni articoli dedicati alla “libertà di fare business” ed alla “libertà delle arti e delle scienze”. Doveri, dunque, ma anche opportunità.
- Essere etica, compatibile con i principi e i valori umani
- Essere solida tanto dal punto di vista tecnico quanto da quello sociale
Le linee guida si concentrano sul secondo e terzo punto, facendo un esplicito richiamo alle normative in essere per ciò che concerne la “legalità” dell’intelligenza artificiale.
IL CONTESTO
È la Commissione Europea a volere fortemente un documento che supporti lo sviluppo e l’impiego dell’intelligenza artificiale nel rispetto dei principi dell’etica. La creazione del gruppo indipendente AI HLEG (High-Level Expert Group on Artificial Intelligence) va proprio in questa direzione, con l’intento di redigere linee guida che non sostituiscano le norme vigenti, ma che indichino esplicitamente i valori da perseguire in un contesto socio-economico in forte mutazione.
Il draft di dicembre 2018 è stato sottoposto a consultazione pubblica, e gli oltre 500 commenti ricevuti hanno consentito agli esperti di redigere il documento finale.
IL PUNTO FERMO
Il punto di partenza (e di arrivo) delle linee guida è uno solo: l’IA deve avere l’uomo al centro, essere al servizio cioè del bene comune per migliorare il benessere e garantire la libertà. Se così non fosse, le conseguenze potrebbero essere pericolose (e non volute), creando danni sia all’uomo che alla società intera.
Lo sforzo verso un’intelligenza artificiale affidabile non riguarda solo l'affidabilità del solo sistema di IA, ma richiede un approccio olistico e sistemico che comprenda l'affidabilità di tutti gli attori e i processi che fanno parte del contesto socio-tecnico del sistema in tutto il suo intero ciclo di vita.
Solo in questo modo, dunque, l’Europa vede possibile una “competitività responsabile”, con l’etica che rappresenti il pilastro su cui poggia l’intero sistema socio-economico comunitario.
LE FONDAMENTA E I PRINCIPI ETICI

Perché l’intelligenza artificiale sia “affidabile” bisogna che abbia delle fondamenta: il gruppo di esperti le ha individuate nei Trattati UE, nella Carta dei Diritti e nella legge internazionale sui diritti umani. Queste devono essere le basi "in cui l'essere umano gode di uno stato morale unico e inalienabile di primato nei contesti civili, politici, economici e sociali”.
Nello specifico caso dell’intelligenza artificiale, questi sono i diritti fondamentali da garantire:
- Rispetto per la dignità dell’uomo: i sistemi di IA devono essere sviluppati garantendo l’integrità fisico-mentale della persona
- Libertà dell’individuo, inclusa quella di poter accedere ai benefici e alle opportunità date dall’IA
- Rispetto per la democrazia, per la giustizia e per il ruolo della legge
- Eguaglianza, non discriminazione e solidarietà, incluso il bisogno di educare i sistemi di IA utilizzando dati che rappresentino l’intera popolazione, tra cui le persone a rischio di esclusione
- Diritti dei cittadini: l’IA deve essere al servizio del cittadino, migliorando l’efficienza delle amministrazioni
Sulla base di queste fondamenta sono stati individuati quattro principi etici da rispettare per garantire che i sistemi di IA vengano sviluppati e sfruttati in modo “affidabile”:
- Rispetto per l’autonomia dell’uomo: chi ha a che fare con l’IA deve vedersi garantita la propria autonomia senza diventare subordinato.
- Prevenzione del danno: l’IA non deve mettere in pericolo l’integrità mentale e fisica delle persone. In particolare, bisogna porre attenzione ai casi in cui alcuni soggetti possano trovarsi nelle condizioni di utilizzare l’IA a scopi malevoli, creando ad esempio asimmetrie informative.
- Equità nella distribuzione dei costi e dei benefici, nell’accesso ai servizi, all’educazione e alla tecnologia. In più, chi utilizza l’IA è tenuto a valutare le conseguenze, bilanciando correttamente i propri interessi con gli obiettivi.
- Chiarezza: perché l’IA venga “accettata” dalla popolazione servono trasparenza e condivisione dei contenuti, in modo tale che i sistemi che la utilizzano siano noti a tutti coloro che sono direttamente o indirettamente coinvolti.
7 PUNTI DA RISPETTARE

Abbandonando gli aspetti prettamente teorici, sono 7 i punti da seguire per un’intelligenza artificiale “etica” e credibile. Questi altro non sono che la “traduzione” pratica delle fondamenta e dei principi sopra indicati, e possono essere perseguiti adottando metodi tecnici e non:
- Supervisione umana
- L’IA non deve “ridurre, limitare o fuorviare l’autonomia umana”: non devono essere sviluppati sistemi che mettano a rischio i diritti fondamentali dell’uomo. La persona deve restare autonoma e in grado di supervisionare il sistema stesso.
- Solidità tecnica e sicurezza
- Gli algoritmi devono essere affidabili e sviluppati in modo tale che la sicurezza non venga messa in pericolo durante l’intero ciclo di vita del sistema. Ad esempio, deve essere prevista la possibilità di proteggere i sistemi di IA da attacchi hacker. In più, va previsto sempre un piano di emergenza nel caso in cui si verifichino dei problemi. Solidità tecnica significa anche accuratezza e riproducibilità dei dati.
- Privacy e governance dei dati
- Deve essere garantito il pieno controllo dei propri dati nel massimo della privacy lungo l’intero ciclo di vita del sistema che fa uso dell’intelligenza artificiale.
- Trasparenza
- Trasparenza significa “tracciabilità” dei sistemi IA. Tutti i dati utilizzati, inclusi gli algoritmi, vanno documentati: solo così si capiranno i motivi per cui, ad esempio, una decisione basata sull’IA è stata presa in modo errato. In più, tutti i cittadini devono sapere quando interagiscono con un sistema di IA.
- Diversità, non discriminazione ed equità
- Sono tutti aspetti di cui l’IA deve tenere conto lungo l’intero ciclo di vita: inclusione, partecipazione e rispetto della diversità garantiscono un utilizzo equo del sistema.
- Benessere sociale e ambientale
- L’IA deve essere al servizio della società e dell’ambiente, e integrare un senso di responsabilità che consenta all’uomo di perseguire obiettivi di sviluppo sostenibile nelle tre accezioni sociale, ambientale ed economico.
- Accountability
- “Accountability” non coincide proprio con “contabilità”, in quanto include anche aspetti di responsabilità nel riportare i dati e gli algoritmi utilizzati nei sistemi di IA (nel rispetto della proprietà intellettuale). Questo processo di valutazione consente di minimizzare eventuali impatti negativi e di affrontare condizioni di trade-off (compromessi).

Se siete interessati all’argomento, vi consigliamo di leggere l’intero documento che trovate in FONTE, all’interno del quale vengono approfonditi tutti gli aspetti trattati qui ed elencati alcuni metodi per la valutazione della IA “affidabile”. Sono poi presenti alcuni schemi ed esempi che aiutano meglio a capire come implementare un sistema di intelligenza artificiale che rispetti i requisiti “etici” proposti dall’Unione Europea.
Commenti
Si beh, ti parlo di tipo dieci anni fa xD
Ma davvero? Se penso a quanta roba mi hanno offerto. Certe cose le trovavo solo là :(
Basta che rispetti i limiti!
cioè non può scorreggiare?
Sinceramente non mi convince molto la cosa... Vedo i buoni propositi e li apprezzo, ma dubito saranno presi in seria considerazione dalle aziende.
Ogni azienda fa quel cavolo che vuole riguardo a tutto, figuriamoci se si lasceranno mettere dei paletti sull'uso dell'AI (quella vera, non la fotocamera di Huawei).
Spero che l'EU riesca davvero a fare da organo controllante.
A parole l'UE è fantastica. Nei fatti...
Attento a non pungerti su quello spigolo.
Era meglio se lo leggevano
Penso Corona sia stato in galera più anni di tutti gli assassini (singolarmente) degli ultimi 30 anni.
me ne faccio risate se gli danno un paio di anni di gabbio quando uno qui da me per tentanto omicidio e forse anche con un arma non dichiarata se fatto 1 anno di domiciliari lol
sicuramente altre persone hanno il backup come ex morto kickass
Questa è l'Europa che vogliamo, un'Europa leader nel mondo su questioni su cui gli altri paesi arretrano
Praticamente una lista di buoni intenti che in tanti luoghi del globo sono tutt’altro che applicati.
Se l’IA apprende dai nostri comportamenti mi chiedo come possa rispettare queste regole
Ci hanno già provato in Matrix e si è visto come è andata a finire, se non ci credete chiedete a Neo
Così come?
Un listone di parole buttate giù un po' a caso
XD
la release list però è sempre attiva...
F :(
Ovviamente.
No è quasi al gabbio
Ahahahah =)
E morto?
Una buona listona di regole. Non sembra male.
Se bastano i bit dei server di DisQus, volentieri! XD
OT: Nessuna news su TntVillage?
Bene così
Se altri fanno i populisti va bene, se lo faccio io non va bene, vuoi comunque che ti faccio un elenco di tutti i settori dove l'Europa è dipendente dagli asiatici o dagli statiunitensi?
Punto 1: l'IA deve rispettare i limiti di CO2 imposti per il 2023.
Sai vero quanti settori stai prendendo in considerazione con questa frase iper semplificativa?
Le menti malate esisteranno sempre
Io reputo invece la CE la maggior minaccia per qualsivoglia forma di tecnologia che non sia prodotta in nazioni terze =)
- Deve essere rispettosa degli alcolizzati (Juncker Friendliness)
Avete visto troppi film =)
Qualcuno ha visto "io,robot" e sono andati in ansia...
Ha il codice etico, ma non ha l'IA.
D'altro canto, è risaputo che l'IA, al momento, è la maggior minaccia che incombe sulla popolazione europea!