
Apple 19 Mag
L'AI Act sta creando preoccupazione in OpenAI, che minaccia di ritirare i suoi prodotti dal mercato europeo se non fosse possibile rispettare le regole che saranno imposte in futuro. Nel frattempo si scopre che Google collaborerà alla stesura della regolamentazione.
Mentre l'Europa sta discutendo e finalizzando i nuovi regolamenti sull'intelligenza artificiale, inclusi in quello che viene definito AI Act, ossia un progetto che vede le sue radici in una proposta risalente al 2021, c'è molto fermento da parte dei principali protagonisti, che vedono nei potenziali limiti imposti uno scoglio all'utilizzo delle più recenti tecnologie.
Le maggiori preoccupazioni sono state esposte dal CEO di OpenAI, Sam Altman, che non esclude di poter ritirare i suoi servizi dal mercato europeo se la nuova regolamentazione UE si rivelasse oltremodo restrittiva e invalidante. Le preoccupazioni scaturirebbero da tutto ciò che è avvenuto negli ultimi mesi in seguito ai problemi di privacy emersi a partire dall'Italia. L'AI Act è stato ampliato includendo nuovi obblighi e limitazioni per i modelli di intelligenza artificiale, ma il lavoro sarà ancora lungo e potrebbe cambiare molto nella stesura finale.
Altman afferma senza troppe remore che cercherà di rispettare gli obblighi, ma qualora ciò non fosse possibile non avrà altra scelta che ritirare i prodotti di OpenAI dal mercato europeo. Il CEO della società ne ha parlato con diverse testate tra cui il Time, dove ha affermato che ChatGPT sarebbe stati designato come un servizio "ad alto rischio" ai sensi della legislazione dell'UE, e ciò comporterà la necessità di soddisfare una serie di requisiti di sicurezza e trasparenza molto complessi e attualmente in continua evoluzione.
"Saremo in grado di risolvere questi requisiti oppure no. ]...] qui ci sono limiti tecnici a ciò che è possibile."
Come se non bastasse, le richieste dall'EU AI Act sono rischiose anche a livello commerciale, poiché richiedono la condivisione di informazioni interne e di progettazione che la società preferirebbe non fornire. Una disposizione dell'attuale bozza richiede che si specifichi la potenza di calcolo richiesta per far funzionare la piattaforma IA, tempo di formazione e altre informazioni pertinenti relative alle dimensioni e alla potenza del modello, nonché di fornire un riepilogo dei dati protetti da copyright utilizzati per l'allenamento del chatbot.
OpenAI condivideva già buona parte di queste informazioni, tuttavia ha cambiato rotta quando si è ventilato il rischio che i competitor potessero attingere al lavoro svolto per creare i propri modelli e intaccare quanto fatto in questi anni di sviluppi. Non vanno dimenticati nemmeno i rischi legali a cui sarebbe sottoposta la società se dovesse condividere dati protetti da copyright.
Quando le aziende divulgano queste fonti di dati aprono il fianco a controversie legali. È già successo con Stability AI, citata in giudizio dal produttore di immagini stock, Getty Images, per aver utilizzato i suoi dati protetti da copyright al fine di addestrare il suo generatore di immagini AI.
Mentre OpenAI esprime le sue preoccupazioni, il capo del settore della Commissione europea (CE) Thierry Breton, ha dichiarato che lavorerà a stretto contatto con Alphabet con l'obiettivo di stabilire regole di base sull'intelligenza artificiale. Breton ha incontrato a Bruxelles il CEO di Google, Sundar Pichai, per discutere l'accordo. Il patto mira a stabilire delle linee guida accettabili ed equilibrate prima dell'arrivo di una legislazione ufficiale. Ecco un estratto della dichiarazione di Breton a tal proposito.
"Sundar e io abbiamo convenuto che non possiamo permetterci di aspettare fino a quando il regolamento sull'IA non diventi effettivamente applicabile e di collaborare con tutti gli sviluppatori di intelligenza artificiale per sviluppare già un patto sull'IA su base volontaria prima della scadenza legale."
Anche il Commissario UE per la Concorrenza, Margrethe Vestager, che ha incontrato Pichai negli stessi giorni, ha sottolineato la necessità di agire insieme. "Abbiamo bisogno dell'AI Act il prima possibile. Ma la tecnologia AI si evolve a una velocità estrema. Ci serve un accordo volontario su regole universali per l'IA adesso", ha scritto in un tweet, affermando inoltre che l'Unione europea e gli Stati Uniti intendono intensificare la cooperazione sull'intelligenza artificiale per stabilire standard minimi prima che la legislazione entri in vigore. Si andrà incontro a un regolamento comune? Tutto da vedere, ma l'intenzione c'è.
Galaxy S23 Ultra: come ottenere il massimo grazie ai software di Samsung | Video
SONY ZV-1 II: abbiamo provato la nuova Vlog Camera. Ne vale la pena?
Prime Video: tutti i film e le serie TV in arrivo a giugno 2023
Hisense Europe in Slovenia: dove nascono prodotti e tecnologie per tutto il mondo
Commenti
Da abbonato, anche io ho avuto problemi
Io non ho avuto problemi, anche se non l'ho usato di continuo. Però ho visto altri che hanno segnalato problemi (e non solo oggi). E non c'è differenza tra plus e non plus.
In ogni caso il Plus è decisamente un grosso passo in avanti. Primo perchè il 3.5 genera a velocità 10x, secondo perchè GPT-4 in molti ambiti straccia il 3.5.
A parte che questo sciagurato Parlamento UE, nato sui deliri della Greta e campagne mediatiche totalizzanti, è in scadenza e quindi quel che dice oggi conta abbastanza poco sul medio periodo, ma io leggo che uno dei tizi dell'UE incontra il concorrente e quello che più a da perdere da non mettere un freno a OpenAI e "concorda" le regole.
Ti credo che qualcuno si preoccupi
si chiamano interessi! :)
Oggi per la prima volta ChatGPT è stato inaccessibile per ore, almeno per me
Effettivamente....
speriamo nessuno faccia cassate!
Facciamo chiarezza: regolare la AI in modo da avvantaggiarci (tipo mettere lo sviluppo sotto licenza) per mettere barriere alla concorrenza va bene.
Regolarla senza nessun vantaggio per noi ma solo con costi in più non va bene.
In ogni caso non è affatto una gran legge.
Da una parte è piuttosto inutile e vago, per esempio ci sono articoli dove richiedono che i dataset siano rappresentativi e di buona qualità. Senza specificare cosa significhi "rappresentativi" o "di buona qualità". Immaginate se le specifiche per la costruzione dei ponti fossero "il ponte deve reggere abbastanza peso". Semmai mi dici che deve reggere almeno 60 tonnellate di camion, altrimenti parliamo del nulla.
Dall'altra parte è potenzialmente anche dannoso perchè c'è una norma che non si capisce cosa intenda, ma c'è il rischio che possano essere regolamentati i modelli in stile GPT anche se open-source e fatti senza fini di lucro. In realtà non è sicuro ma essendo l'articolo in questione ambiguo non si capisce se sono inclusi anche loro o no.
Poi non si capisce nemmeno come dovrebbe funzionare. Cioè io sviluppo un modello open-source. Se lo metto su github mi denunciano?
Uno sviluppatore/ricercatore in australia che magari non gliene fotte nulla di leggersi tutte ste menate lo fanno arrestare con un mandato di cattura internazionale perchè ha messo il modello su github e l'ha reso quindi disponibile anche agli europei?
Anche in questo caso mi sembra che si siano abbastanza bevuti il cervello.
Se considerate che uno dei due relatori principali del testo è uno del PD però si spiega molto (non ce l'ho con il PD in particolare, però in questo specifico caso è uno del PD).
Il genio è ormai uscito dalla lampada.