La Commissione europea propone nuove regole per l'intelligenza artificiale

21 Aprile 2021 37

I potenziali benefici dell'IA per le nostre società sono molteplici, da un'assistenza medica più efficace a una migliore istruzione. Di fronte al rapido sviluppo tecnologico dell'IA, occorre un'azione unitaria dell'UE per sfruttare queste opportunità. La Commissione europea ha proposto a Bruxelles delle nuove regole e azioni volte a trasformare l'Europa nel polo mondiale per un'intelligenza artificiale (IA) affidabile. Queste regole hanno l'obiettivo di far crescere la fiducia degli utenti in una nuova e versatile generazione di prodotti.

Rispetto al piano coordinato del 2018, che ha gettato le basi per il coordinamento delle politiche in materia di IA e ha incoraggiato gli Stati membri a sviluppare strategie nazionali, questa revisione ha lo scopo di mantenere una politica agile e adeguata alla luce dell'evoluzione del contesto tecnologico, economico e politico in materia di IA.

Secondo Margrethe Vestager, Commissario europeo per l'agenda digitale, la fiducia nei prodotti dotati di intelligenza artificiale non è facoltativa, è indispensabile e queste regole rappresentano una svolta.

"Definendo le norme possiamo spianare la strada a una tecnologia etica in tutto il mondo e garantire che l'UE rimanga competitiva. Le nostre regole saranno adeguate alle esigenze future e favorevoli all'innovazione e interverranno ove strettamente necessario: quando sono in gioco la sicurezza e i diritti fondamentali dei cittadini dell'UE."

Le regole sulla IA saranno proporzionate, flessibili, affronteranno i rischi specifici posti dai sistemi di IA e fisseranno i più elevati standard a livello mondiale con lo scopo di definire un'IA "antropocentrica, sostenibile, sicura, inclusiva e affidabile"

REGOLE E LIMITI IN BASE AL RISCHIO

Le nuove regole, si legge in una nota, saranno applicate direttamente e nello stesso modo in tutti gli Stati membri, sulla base di una definizione di IA adeguata alle esigenze future, e seguono un approccio basato sul rischio.

  • Rischio inaccettabile: i sistemi di IA considerati una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone saranno vietati. Sono compresi i sistemi o le applicazioni di IA che manipolano il comportamento umano per aggirare il libero arbitrio degli utenti e i sistemi che consentono ai governi di attribuire un "punteggio sociale".
  • Rischio alto: sono considerati ad alto rischio i sistemi in cui la tecnologia di IA è utilizzata:
    • in infrastrutture critiche (ad esempio i trasporti), poiché potrebbe mettere a rischio la vita e la salute dei cittadini;
    • nell'istruzione o formazione professionale, poiché può determinare l'accesso all'istruzione e il percorso professionale della vita di una persona (ad esempio, attribuzione del punteggio degli esami);
    • in componenti di sicurezza dei prodotti (ad esempio un'applicazione di IA utilizzata nella chirurgia assistita da robot);
    • nell'ambito dell'occupazione, della gestione dei lavoratori e dell'accesso al lavoro autonomo (ad esempio, software di selezione dei CV per le procedure di assunzione);
    • in servizi pubblici e privati essenziali (ad esempio, lo scoring del credito che può negare ai cittadini la possibilità di ottenere un prestito);
    • in attività di contrasto che possono interferire con i diritti fondamentali delle persone (ad esempio, valutazione dell'affidabilità delle prove);
    • nella gestione della migrazione, dell'asilo e del controllo delle frontiere (ad esempio, verifica dell'autenticità dei documenti di viaggio);
    • nell'amministrazione della giustizia e nei processi democratici (ad esempio, applicazione della legge a una serie concreta di fatti).

Tutti i sistemi che rientrano in queste tipologie saranno comunque soggetti a obblighi definiti "rigorosi" prima di poter essere immessi sul mercato. Dovranno infatti garantire, ad esempio, un'elevata qualità dei set di dati che alimentano il sistema, una documentazione dettagliata e appropriate misure di sorveglianza umana.

In particolare, inoltre, tutti i sistemi di identificazione biometrica remota sono considerati ad alto rischio e soggetti a requisiti rigorosi. Le eccezioni ammesse riguardano l'uso ai fini di attività di contrasto per la ricerca mirata di potenziali vittime specifiche di reato, compresi minori scomparsi, la risposta a una minaccia imminente di attacco terroristico o l'individuazione e l'identificazione degli autori di reati gravi.

  • Rischio limitato: ossia sistemi di IA con specifici obblighi di trasparenza. Per fare un esempio, gli utenti devono essere consapevoli di interagire con un macchina, ad esempio nella chat dove ci sono dei bot.
  • Rischio minimo: la proposta legislativa consente il libero utilizzo di applicazioni quali videogiochi o filtri spam basati sull'IA. In questo caso, infatti, i sistemi di IA presentano solo un rischio minimo o nullo per i diritti o la sicurezza dei cittadini.
A CHI SI APPLICA IL QUADRO GIURIDICO

Il quadro giuridico si applicherà ai soggetti pubblici e privati, all'interno e all'esterno dell'UE, a condizione che il sistema di IA sia immesso sul mercato dell'Unione o che il suo utilizzo abbia effetti su persone situate nell'UE. Può riguardare sia i fornitori (ad esempio, lo sviluppatore di uno strumento di screening dei CV) sia gli utenti di sistemi di IA ad alto rischio (ad esempio, una banca che acquista lo strumento di screening suddetto). Non si applica agli usi privati e non professionali.

Il Parlamento europeo e gli Stati membri dovranno adottare le proposte della Commissione relative a un approccio europeo all'intelligenza artificiale e ai macchinari nell'ambito della procedura legislativa ordinaria. Una volta adottati, i regolamenti saranno direttamente applicabili in tutta l'UE.


37

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
AmIkiddingyou

Non riesci a cogliere che non ti serve una definizione per istruire una AI a compiere un processo e ciò rende le tue obiezioni sulla questione ancora scentrate.

Comunque, rimanendo al tuo esempio, un'AI evidentemente procederebbe proprio come l'uomo ha scelto di voler fare, ovvero per convenzione.

danieleg1

E invece le presenta, nei casi limite le definizioni non sono chiare manco per noi. Ad esempio: quando un embrione può essere considerato un essere umano?

AmIkiddingyou

Tu confondi il piano dei principi con quello tecnico.
In ogni caso, il topic fornisce un aiuto al tentativo di fornire lo stesso una risposta al tuo quesito: tu sei in grado di distinguere un essere umano da quello che non lo è? Tu sei in grado di comprendere cosa significhi recar danno? Bene, le AI possono essere istruite con meccanismi analoghi a quelli del tuo apprendimento, molto costosi in termini di risorse computazionali, ma nei quali la costruzione dell'algoritmo non presenta le difficoltà che sottointendi tu.

Rendiamociconto

perchè uno può essere (può) nel privato ma a più livelli di cascata condivisi da tutti i privati e regolamentati e sorvegliati è molto più difficile

Alex

bravo kompagno

biggggggggggggg

Ed anche degli strumenti che usa, quindi anche dell'AI.

Everetth

un timido tentativo di mettere delle regole, ma siamo ancora distanti, e devono essere condivise da tutti altrimenti non serve a nulla ...

Guest

la differenza è che l'essere umano è responsabile delle sue scelte davanti alla legge ;)

Guest

ma siamo tutti disonesti come dici, perchè assumi che chi mette in piedi l'AI sia onesto?

Guest

????
stai bene?
e' ovvio che un'AI che fa danni ad un uomo è molto peggio di uomo che fa danni ad un uomo, visto che il SECONDO non ha tempo di farlo in modo massivo e, cosa ben più importante, NE E' RESPONSABILE IN PRIMA PERSONA.

Guest

Ovvio: li hanno messi li apposta per far rosikare malissimo quelli come te ;)

Alex

Un carrozzone di incapaci in tutti i settori.

Klaus Heissler

quindi, fammi capire, tu reputi svantaggioso se si dovesse giungere agli stessi risultati per chi non ha presentato domanda rispetto a chi invece l'ha presentata ed è stato analizzato allo stesso modo?
hahahahaha
l'atto di presentazione della domanda è quello che manifesta l'interesse per avere il prestito, adesso sprecano risorse e tempo per analizzare chi "potrebbe sporgere domanda".

danieleg1

Ottime leggi per un libro o come esercizi filosofici, nella realtà sono inutili: come definisci un "essere umano" o il "recare danno".

AmIkiddingyou

Secondo i leak, pare che le regole proposte siano:
Legge 1: Un'intelligenza artificiale non può recar danno ad un essere umano...

HdBfs

Non è più sbagliato, semplicemente può essere fatto in modo più massivo al punto che potrebbero nemmeno darti la possibilità di presentare una domanda a priori

Klaus Heissler

e questo cosa vorrebbe dire? io ho solo evidenziato il fatto che "se fatto con l'ai è più sbagliato che se fatto dall'uomo" cosa che reputo di una ipocrisia impressionante, dalla parte dell'uomo, si intende

Paolo Giulio

Ok, prova a leggere la DEFINIZIONE di IA (* anche se editor su wikipedia, non l'ho scritta io, GIURO!), poi rileggi il mio post e poi magari rimetti mano alla tastiera (possibilmente per scrivere qualcosa di INTELLIGENTE (per restare in tema, obv) e pertinente). Grazie.

P.S. se poi vuoi darci la TUA definizione di IA che cozza con quanto si intenda comunemente, ok.. illuminaci... ma, COME HO SCRITTO NEL POST (anche la comprensione è effettivamente un livello che avevo dato FORSE ERRONEAMENTE per scontato), diventa un questione di semantica.

(*) «L'intelligenza artificiale (o IA, dalle iniziali delle due parole, in italiano) è una disciplina appartenente all'informatica che studia i fondamenti teorici, le metodologie e le tecniche che consentono la progettazione di sistemi hardware e sistemi di programmi software capaci di fornire all'elaboratore elettronico prestazioni che, a un osservatore comune, sembrerebbero essere di pertinenza esclusiva dell’intelligenza umana.»

Definizioni specifiche possono essere date focalizzandosi o sui processi interni di ragionamento o sul comportamento esterno del sistema intelligente e utilizzando come misura di efficacia o la somiglianza con il comportamento umano o con un comportamento ideale, detto razionale:

1 Agire umanamente: il risultato dell’operazione compiuta dal sistema intelligente non è distinguibile da quella svolta da un umano.
2 Pensare umanamente: il processo che porta il sistema intelligente a risolvere un problema ricalca quello umano. Questo approccio è associato alle scienze cognitive.
3 Pensare razionalmente: il processo che porta il sistema intelligente a risolvere un problema è un procedimento formale che si rifà alla logica.
4 Agire razionalmente: il processo che porta il sistema intelligente a risolvere il problema è quello che gli permette di ottenere il miglior risultato atteso date le informazioni a disposizione.

L'intelligenza artificiale è una disciplina dibattuta tra scienziati e filosofi poiché manifesta aspetti etici oltre che teorici e pratici

Rendiamociconto

hai dimenticato di taggarti

HdBfs

Dove sta scritto che non ci siano problemi anche nelle qualifiche fatte dalle persone? Anche quelle sono regolamentate

HdBfs

Quella che intendi tu è definita IA dura e probabilmente per fortuna è irrealizzabile

frank700

E per quella naturale? A volte mi arrabbio con me stesso quando parlo da solo perchè mi trovo idiota. Serve una legge.

HdBfs

Ma non "ti rendi mai conto" delle caz2ate che scrivi?

Rendiamociconto

la gente che se la passa bene ha paura, ha paura di essere sgamata, scovata e punita per i crimini e le porcate che fa....con il controllo umano questo è lento , fallibile, corruttibile , hai la speranza di farla franca. Con l'ai no.
La paura di molti di non farla franca per piccole nefandezze o crimini giustifica gli stessi sulla riga "può capitare anche a me quindi chiudo uno od entrambi gli occhi finchè mi va bene".
La speranza dell'ipocrisia.

biggggggggggggg
certo, come se il banchiere facesse scelte dettate dal cuore quando ti concede un prestito e come se non si facesse già aiutare da algoritmi di semplice statistica per trarre le conclusioni

Amen porco ca**o.
Se li fa un essere umano ok, se li fa un algoritmo tradizionale ok, se li fai con un modello di machine learning è il d3mon1oo!1!11!1

Klaus Heissler

mi fa sorridere come in molti dei punti evidenziati come "rischio alto" sono già applicati tali tipi di discriminazioni di vario tipo operate dall'uomo solo mediati da valutazioni "più umane". certo, come se il banchiere facesse scelte dettate dal cuore quando ti concede un prestito e come se non si facesse già aiutare da algoritmi di semplice statistica per trarre le conclusioni.
stendiamo un velo pietoso al "rischio inaccettabile" in quanto già oggetto di studio in molti ambiti di modelli per l'analisi della società (leggasi analisi comportamentali per investimenti su linee di prodotti da commercializzare o semplici applicazioni da creare per identificare quello che la gente vuole e darglielo il più in fretta possibile, quale "miglioramento" alla vita di tutti i giorni, come se in mente ci fosse di nuovo il miglioramento)

biggggggggggggg

Esattamente, populismo allo stato puro.

Tra l'altro non escluderei una certa malafede volta a mettere i bastoni tra le ruote a quelli citati sopra (USA, UK, Cina, ecc) per cercare di recuperare il gap.

asd555

Senti ma mi presenti il tuo pusher? Ha roba ottima, è evidente.

Il corpo di Cristo in CH2O

questa è una regolamentazione basata sul buon senso non sulla conoscenza effettiva della materia, per questo rasenta il ridicolo. scommetto che se chiamassero una serie di esperti in materia comincerebbero a partire da analisi pratiche che però sono ben difficili da comprendere, siccome quindi il politico come sempre vuole la risposta facile e veloce (sarà forse perchè è lui per primo abituato a darla?) chiama gli "esperti" (notare le virgolette) che gli diranno quali sono le implicazioni in modo più che rapido, e aggiungerei soggettivo, portando a questa legiferazione degna della morale comune che si può trovare al bar.

Maurizio Mugelli

abbiamo capito che tu non hai la minima idea di cosa sia l'IA in pratica.

Fabios112

Ottimo modo per farti copiare il modello e perdere milioni in sviluppo ahah

Fabios112

E poi finisce il film.

TalpaGamer99

Meno male che vengono poste delle regole, anche se onestamente i rischi sono troppo alti, ho già visto troppi film sull'apocalisse e gli esperimenti di microsoft. Una IA funziona bene finchè è dentro una macchina senza internet, ma poi più si evolverà e più imparerà dall'uomo e l'uomo essendo un essere malvagio per natura plasmerà una IA cattiva e quando l'IA avrà un corpo vorrà fare le scarpe all'uomo.

biggggggggggggg

Mi sembra il modo migliore per tagliarsi le pa**e nei confronti della concorrenza americana, cinese, giapponese, koreana, UK, ecc.
Come se poi ci fosse concorrenza, in EU già ora c'è ben poco.

Dovranno infatti garantire, ad esempio, un'elevata qualità dei set di dati che alimentano il sistema, una documentazione dettagliata e appropriate misure di sorveglianza umana.

I dataset nel machine learning sono una delle cose più importanti in assoluto, costituiscono un vantaggio competitivo non da poco.
Volete un esempio pratico? NVIDIA ha un catalogo di modelli di machine learning che trovate su NGC. Sono addestrati o da loro o in cooperazione con altri. Chiaramente come linea generale più esempi vede un modello meglio è. Siccome molti loro partner e clienti NON vogliono che i loro dataset vengano visti da tutti (e volendo si può fare anche un reverse enginnering senza avere i dati) hanno introdotto una specie di meccanismo crittografico con il quale tu alleni il modello ma è impossibile risalire ai dati originali. Questo è il livello di "quant'è strategico un dataset".
Voglio proprio vedere in cosa consisterebbe questa "trasparenza sulla qualità dei dataset".

Anche documentazione, cosa significa? Ti spiego com'è fatto il modello? Come l'ho ottenuto? Bah.
Appropriate misure di sorveglianza umana cosa significa?

Paolo Giulio

"mettere regole all'intelligenza artificiale"... non cogliete il (nemmeno troppo) contorto sofismo di tale affermazione? :D

Se è "intelligenza", troverà sempre e comunque un modo per evolversi... altrimenti stiamo parlando di "comandi", istruzioni che non necessitano di "intelligenza"... altrimenti è una questione di semantica in relazione a cosa si intenda per "intelligenza" (artificiale o meno che sia)

Life_XP

Basta burocrazia

Allora voglio 'Skynet'.
:D

Copertura 5G, a che punto siamo davvero? La nostra esperienza in città

Spotify, Apple Music e gli altri: chi vincerà sul ring dello streaming musicale?

Xiaomi 11T ufficiale con Pro, 11 Lite NE e Pad 5. PREZZI e disponibilità Italia

Internet down: migliaia di siti offline, tra cui Amazon e Twitch | Cos'è successo