
Sicurezza 07 Dic
L'Unione Europea è alla ricerca di regole condivise e comuni per una corretta gestione dell'intelligenza artificiale da diverso tempo. Già nel 2018 aveva varato delle linee guida, successivamente nel 2021 la Commissione ha proposto nuove regole per uno sviluppo controllato dell'AI a tutela dei cittadini. Nel giro di pochi anni, tuttavia, la tecnologia ha subìto una rapidissima evoluzione ed ora i legislatori comunitari si trovano davanti a una sfida parzialmente inedita da fronteggiare con urgenza.
Il quadro normativo, riporta Reuters, appare in stallo, in quanto gli incontri tenuti in queste ultime settimane non sembrano aver portato ad una visione condivisa. Ci si aspettava un documento finale in tempi brevi, così da poterlo sottoporre agli altri organi dell'Unione, ma i ritardi (e gli oltre 3.000 emendamenti presentati) rischiano di spostare l'approvazione all'anno prossimo dopo le elezioni europee. Cambiando i membri del Parlamento di Strasburgo c'è il pericolo che il lavoro sin qui portato avanti debba essere nuovamente rivisto.
Ma se la tecnologia corre veloce, ci sono alcuni aspetti dell'intelligenza artificiale che restano immutati. Ed è su questi che si dovrebbe trovare un accordo il prima possibile. In più l'Europa garantisce che la legge prevederà revisioni periodiche per tenere conto dell'avanzamento della tecnologia. L'analista Daniel Leufer spiega:
Il ritmo con cui vengono rilasciati nuovi sistemi rende la regolamentazione una vera sfida. É un obiettivo in rapido movimento, ma ci sono misure che restano rilevanti nonostante la velocità dello sviluppo: trasparenza, controllo di qualità e misure per garantire i propri diritti fondamentali.
L'obiettivo è quello di trovare un punto di equilibrio tra innovazione e tutela dei diritti dei cittadini. Seguendo questa strada, i legislatori hanno classificato gli strumenti di AI sulla base del loro livello di rischio percepito: minimo, limitato, alto, inaccettabile. Le aziende coinvolte nello sviluppo dell'intelligenza artificiale - Microsoft con ChatGPT, Google con Bard e non solo - temono che una normativa stringente possa limitare la loro competitività e per questo hanno fatto pressione sull'Unione per far sì che le loro innovazioni restino fuori dal sistema di classificazione ad alto rischio. É stata creata anche nuova categoria chiamata General Purpose AI Systems (GPAIS) che prende in considerazione ChatGPT e gli LLM.
Gli sviluppatori hanno manifestato la loro contrarietà a questo sistema di classificazione e, in generale, alla dipendenza di un sistema "esterno" di valutazione, in quanto ritengono che la tecnologia da loro implementata sia già sottoposta ad un sistema di sicurezza interno.
Commenti
E la siae si sfrega le mani
Secondo me Microsoft, Google, OpenAI e chiunque offra questo tipo di servizio dovrebbe spiegare in modo molto chiaro come vengono reperite ed elaborate le informazioni dal chatbot ed i criteri con cui seleziona i siti web delle fonti. Poi c'è tutto il discorso della visibilità dei siti stessi che va a farsi benedire, realtà piccole ed emergenti come faranno a farsi notare?
Vediamo cosa riescono a partorire questa volta.
Ma se a quelli manca pure l'intelligenza normale.....figuriamoci quella artificiale
Soprattutto e imprescindibilmente.
Propongo di fare scrivere le nuove regole dalla A.I.
è il male del mondo e specialmente dell'Italia
L'ultima cosa che hai detto! Quello è il male dell'Europa.
Tanto sarcastico non è perché una macchina riuscirebbe ad essere imparziale e soprattutto è incorruttibile
Se l'AI fosse a capo dell'UE, funzionerebbe sicuramente tutto molto meglio.
\s