Tutti i prezzi sono validi al momento della pubblicazione. Se fai click o acquisti qualcosa, potremmo ricevere un compenso.

AI Act in Europa, manca ancora un accordo sulle regole per i modelli di base

24 Ottobre 2023 7

Nonostante i grandi passi in avanti fatti fino a oggi, i legislatori europei devono ancora trovare un accordo su diverse questioni relative alle nuove regole sull'intelligenza artificiale in vista del cruciale incontro che si terrà martedì prossimo. Di conseguenza, l'approvazione del cosiddetto AI Act potrebbe slittare al 2024

MARTEDI PROSSIMO UN NUOVO TRILOGO

La bozza delle norme sull’IA deve essere concordata dal Parlamento Europeo e dagli Stati membri dell’Unione Europea e finora sono già stati discussi tre volte nei cosiddetti "triloghi", ossia gli incontri tra il parlamento e gli stati dell’UE per elaborare le versioni finali delle leggi. Martedì prossimo, il 31 ottobre 2023, si terrà un quarto trilogo.

Stando a quanto riportato dalla Reuters, invece, il prossimo 30 ottobre, il giorno prima di questo incontro, i legislatori dell’UE dovrebbero discutere la loro posizione negoziale sui modelli di base e sui sistemi di intelligenza artificiale ad alto rischio.

I modelli di base, come ChatGPT di OpenAI, sono sistemi di intelligenza artificiale addestrati su grandi set di dati, con la capacità di apprendere da nuovi dati per eseguire una varietà di attività e sono definiti come quelli con più di 45 milioni di utenti.

SI SPERA IN UN ACCORDO ENTRO FINE ANNO

La Spagna, che detiene la presidenza dell’UE fino a dicembre, ha spinto per un accordo e ha proposto dei compromessi nel tentativo di accelerare il processo. Tra questi, un approccio multilivello per regolamentare i modelli di base e ulteriori obblighi per i modelli di base più capaci (VCFM), proprio come ChatGPT, compreso un controllo regolare per scoprire potenziali vulnerabilità. Gli oppositori, di contro, affermano che anche le piattaforme più piccole possono essere altrettanto rischiose.

La Spagna ha affermato di aver consultato altri paesi dell’UE su potenziali compromessi in vista del quarto trilogo. Tuttavia, secondo le fonti, in quell'incontro difficilmente si potrà raggiungere un accordo definitivo. Un quinto trilogo si terrà all'inizio di dicembre. Il mancato raggiungimento di un accordo, come detto, potrebbe spostare i negoziati all’inizio del prossimo anno. Le discussioni potrebbero poi essere ulteriormente sviate dalle elezioni del Parlamento europeo previste per giugno del 2024.

I PASSI COMPIUTI FINORA

Diversi legislatori, tra cui il capo dell’industria UE Thierry Breton e i correlatori della legge sull’AI, Dragoș Tudorache e Brando Benifei, hanno espresso la speranza che la bozza venga comunque approvata entro la fine dell’anno. L’UE, ricordiamo, ha iniziato a lavorare al progetto di legge sull’intelligenza artificiale nel 2021. Lo scorso maggio, invece, il Parlamento europeo ha approvato un progetto di legge che include nuove regole sull’uso del riconoscimento facciale, della sorveglianza biometrica e di altre applicazioni di intelligenza artificiale.

Secondo le proposte, la futura normativa europea sull'intelligenza artificiale seguirà un approccio basato sul rischio: in pratica, obblighi e divieti verranno di volta in volta definiti a seconda del livello di rischio che l'AI può potenzialmente generare. Un rischio inaccettabile per la sicurezza porterebbe dunque vietare l'AI.

Vengono definiti intrusivi e discriminatori - e dunque vietati - i sistemi di identificazione biometrica remota in spazi pubblici, fatta eccezione per casi autorizzati (reati gravi), i sistemi di categorizzazione biometrici che fanno uso di caratteristiche sensibili (etnia, religione, orientamento politico, cittadinanza etc), i sistemi basati sulla profilazione o su comportamenti criminali precedenti e i sistemi di riconoscimento delle emozioni.

I governi e le aziende che utilizzano questi strumenti avranno obblighi diversi, a seconda della classificazione.


7

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
T. P.

la vedo complicata

biggggggggggggg

Se il working group che hanno consultato per scrivere questa legge è composto da "esperti" allora io sono napoleone (lo dovresti trovare facilmente cercando "Ai expert group EU", un documento del 2021 mi sembra). Uno dei due relatori "esperti" della legge è brando benifei del PD, laureato in giurisprudenza e da sempre politico.
LLM tipo BERT e GPT-neo (replica open-source dei modelli di OpenAI) li uso quotidianamente e li ho anche fine-tuned per ricerca, non ho bisogno di andare a vedere nessun sito.

Questa parte di legge, un'autentica schifezza, vorrebbe imporre limiti molto pesanti anche ai modelli open-source e di ricerca, ovvero non ai veri e proprio prodotti commerciali a pagamento dei vari openAI, google, ecc. ma anche ai modelli open-source rilasciati da vari enti/università/aziende private. I modelli open-source sono l'unica possibilità per le aziende medio-piccole, specialmente quelle europee che non possono permettersi di spendere 2 miliardi di dollari in server o di assumere 1000 ingegneri di livello mondiale, di implementare nel loro business degli LLM. Invece di pagare milioni di dollari OpenAI per un modello che non puoi neanche personalizzare, te ne scarichi uno gratis e open source come LLaMa-2:
https://ai.meta.com/llama/
In modo da non dipendere dai vari colossi americani.

Ovviamente il CEO di OpenAI è d'accordo con queste limitazioni, cioè gli stanno mettendo fuorilegge i competitor senza il minimo sforzo, vuoi che non festeggi alla notizia?
OpenAI può permettersi di aderire alla folle, monumentale, ed inutile documentazione richiesta in questa legge, un laboratorio di 20 persone in europa che vuole sviluppare un proprio modello è difficile che ci riesca (vedi quelli di Mistral AI in francia). E lasciamo perdere un gruppo di ricerca universitario.

Gli "stessi ideatori" non chiedono un freno. Alcuni sono preoccupati (Hinton e Bengio), altri per niente (Yann LeCun), l'ideatore dei transformers non mi risulta (Wasvani), così come altre migliaia di ricercatori che ridono quando gli dici che chatgpt distruggerà il mondo. Credo che tu non conosca l'argomento di cui stai parlando.

Dico che basterà una VPN perchè se gli host americani (tipo Huggingface o Github) metteranno un geoblocking per non fare accedere ai modelli open-source dall'europa, semplicemente continueremo a scaricarli con una VPN.

fabbro

spiegami la m1nch1ata dato che le consulenze di esperti ci sono e gli stessi ideatori delle ai chiedono un freno.
ti consiglio di informarti su replika e su altre esperienze con ai che fanno danni seri ma per voi conta solo fatturare.
sa che un minimo di competenza manca a te, basta usare una vpn e non esistono più le leggi?

biggggggggggggg

La parte sui modelli di base è una cosa d3menziale che avrà l'effetto indesiderato di avvantaggiare proprio le grandi multinazionali americane.
Quando la redazione di una legge sull'intelligenza artificiale dura un anno e viene affidata ai laureati in scienza politiche a pochi mesi dall'uscita delle suddette tecnologie, questi sono i (pessimi) risultati.

biggggggggggggg

Una parte consistente della legge (proprio quella sui modelli di base) è una m1nchiata talmente colossale, ovvero un favore enorme alle multinazionali americane, che solo il classico politicante ignorante delle questioni poteva scrivere.
"Le altre nazioni esportatrici di democrazia" fatturano centinaia di miliardi con queste tecnologie, noi rosichiamo sui forum su internet e non abbiamo mezza azienda.

Per chi ha un minimo di competenza informatica di base, una VPN risolve tutti i problemi di quest'obbrobrio di legge.

PIxVU

DRAFT [ start ]

una legge per limitare [ regolamentare ] l'utilizzo di piattaforme potenziate da AI, non potrà mai essere completa e nemmeno utile.

il primo passo avrebbe dovuto contemplare invece quel maggiore controllo e quelle pesanti sanzioni per chi non applica le norme in merito a " gestione dei registri " [ records management ] anche " banche dati " che poi alimentano e alimenteranno quei " modelli di base. "
il rischio più evidente - ma anche inquietante - é permettere ai governi e alle collegate istituzioni di fare affidamento su quei modelli che possono essere facilmente manipolati per creare " manovre " e influenzare decisioni quando alimentati anche con nuovi e poi fuorvianti dati oppure informazioni e con quelle modifiche apportate da chiunque.

DRAFT [ end ]

fabbro

forse la prima legge che la ue riesce a scrivere bene e ci copieranno altre nazioni esportatrici di democrazia.

Articolo

Recensione AMD Radeon RX 7600 XT: mainstream ma con 16 GB di memoria

Android

I migliori smartphone medio gamma aggiornati ad Android 14 | VIDEO

Articolo

Netflix: tutti i film e le serie TV di marzo 2024

Tecnologia

Recensione Dreame L10s Pro Ultra Heat: il TOP della fascia media | VIDEO