
19 Settembre 2021
I potenziali benefici dell'IA per le nostre società sono molteplici, da un'assistenza medica più efficace a una migliore istruzione. Di fronte al rapido sviluppo tecnologico dell'IA, occorre un'azione unitaria dell'UE per sfruttare queste opportunità. La Commissione europea ha proposto a Bruxelles delle nuove regole e azioni volte a trasformare l'Europa nel polo mondiale per un'intelligenza artificiale (IA) affidabile. Queste regole hanno l'obiettivo di far crescere la fiducia degli utenti in una nuova e versatile generazione di prodotti.
Rispetto al piano coordinato del 2018, che ha gettato le basi per il coordinamento delle politiche in materia di IA e ha incoraggiato gli Stati membri a sviluppare strategie nazionali, questa revisione ha lo scopo di mantenere una politica agile e adeguata alla luce dell'evoluzione del contesto tecnologico, economico e politico in materia di IA.
Secondo Margrethe Vestager, Commissario europeo per l'agenda digitale, la fiducia nei prodotti dotati di intelligenza artificiale non è facoltativa, è indispensabile e queste regole rappresentano una svolta.
"Definendo le norme possiamo spianare la strada a una tecnologia etica in tutto il mondo e garantire che l'UE rimanga competitiva. Le nostre regole saranno adeguate alle esigenze future e favorevoli all'innovazione e interverranno ove strettamente necessario: quando sono in gioco la sicurezza e i diritti fondamentali dei cittadini dell'UE."
Le regole sulla IA saranno proporzionate, flessibili, affronteranno i rischi specifici posti dai sistemi di IA e fisseranno i più elevati standard a livello mondiale con lo scopo di definire un'IA "antropocentrica, sostenibile, sicura, inclusiva e affidabile"
Le nuove regole, si legge in una nota, saranno applicate direttamente e nello stesso modo in tutti gli Stati membri, sulla base di una definizione di IA adeguata alle esigenze future, e seguono un approccio basato sul rischio.
Tutti i sistemi che rientrano in queste tipologie saranno comunque soggetti a obblighi definiti "rigorosi" prima di poter essere immessi sul mercato. Dovranno infatti garantire, ad esempio, un'elevata qualità dei set di dati che alimentano il sistema, una documentazione dettagliata e appropriate misure di sorveglianza umana.
In particolare, inoltre, tutti i sistemi di identificazione biometrica remota sono considerati ad alto rischio e soggetti a requisiti rigorosi. Le eccezioni ammesse riguardano l'uso ai fini di attività di contrasto per la ricerca mirata di potenziali vittime specifiche di reato, compresi minori scomparsi, la risposta a una minaccia imminente di attacco terroristico o l'individuazione e l'identificazione degli autori di reati gravi.
Il quadro giuridico si applicherà ai soggetti pubblici e privati, all'interno e all'esterno dell'UE, a condizione che il sistema di IA sia immesso sul mercato dell'Unione o che il suo utilizzo abbia effetti su persone situate nell'UE. Può riguardare sia i fornitori (ad esempio, lo sviluppatore di uno strumento di screening dei CV) sia gli utenti di sistemi di IA ad alto rischio (ad esempio, una banca che acquista lo strumento di screening suddetto). Non si applica agli usi privati e non professionali.
Il Parlamento europeo e gli Stati membri dovranno adottare le proposte della Commissione relative a un approccio europeo all'intelligenza artificiale e ai macchinari nell'ambito della procedura legislativa ordinaria. Una volta adottati, i regolamenti saranno direttamente applicabili in tutta l'UE.
Abbiamo provato i nuovi Galaxy Z Fold4 e Z Flip4, ecco le novità! | VIDEO
Copertura 5G, a che punto siamo davvero? La nostra esperienza in città
Spotify, Apple Music e gli altri: chi vincerà sul ring dello streaming musicale?
Xiaomi 11T ufficiale con Pro, 11 Lite NE e Pad 5. PREZZI e disponibilità Italia
Commenti
Non riesci a cogliere che non ti serve una definizione per istruire una AI a compiere un processo e ciò rende le tue obiezioni sulla questione ancora scentrate.
Comunque, rimanendo al tuo esempio, un'AI evidentemente procederebbe proprio come l'uomo ha scelto di voler fare, ovvero per convenzione.
E invece le presenta, nei casi limite le definizioni non sono chiare manco per noi. Ad esempio: quando un embrione può essere considerato un essere umano?
Tu confondi il piano dei principi con quello tecnico.
In ogni caso, il topic fornisce un aiuto al tentativo di fornire lo stesso una risposta al tuo quesito: tu sei in grado di distinguere un essere umano da quello che non lo è? Tu sei in grado di comprendere cosa significhi recar danno? Bene, le AI possono essere istruite con meccanismi analoghi a quelli del tuo apprendimento, molto costosi in termini di risorse computazionali, ma nei quali la costruzione dell'algoritmo non presenta le difficoltà che sottointendi tu.
perchè uno può essere (può) nel privato ma a più livelli di cascata condivisi da tutti i privati e regolamentati e sorvegliati è molto più difficile
bravo kompagno
Ed anche degli strumenti che usa, quindi anche dell'AI.
un timido tentativo di mettere delle regole, ma siamo ancora distanti, e devono essere condivise da tutti altrimenti non serve a nulla ...
la differenza è che l'essere umano è responsabile delle sue scelte davanti alla legge ;)
ma siamo tutti disonesti come dici, perchè assumi che chi mette in piedi l'AI sia onesto?
????
stai bene?
e' ovvio che un'AI che fa danni ad un uomo è molto peggio di uomo che fa danni ad un uomo, visto che il SECONDO non ha tempo di farlo in modo massivo e, cosa ben più importante, NE E' RESPONSABILE IN PRIMA PERSONA.
Ovvio: li hanno messi li apposta per far rosikare malissimo quelli come te ;)
Un carrozzone di incapaci in tutti i settori.
quindi, fammi capire, tu reputi svantaggioso se si dovesse giungere agli stessi risultati per chi non ha presentato domanda rispetto a chi invece l'ha presentata ed è stato analizzato allo stesso modo?
hahahahaha
l'atto di presentazione della domanda è quello che manifesta l'interesse per avere il prestito, adesso sprecano risorse e tempo per analizzare chi "potrebbe sporgere domanda".
Ottime leggi per un libro o come esercizi filosofici, nella realtà sono inutili: come definisci un "essere umano" o il "recare danno".
Secondo i leak, pare che le regole proposte siano:
Legge 1: Un'intelligenza artificiale non può recar danno ad un essere umano...
Non è più sbagliato, semplicemente può essere fatto in modo più massivo al punto che potrebbero nemmeno darti la possibilità di presentare una domanda a priori
e questo cosa vorrebbe dire? io ho solo evidenziato il fatto che "se fatto con l'ai è più sbagliato che se fatto dall'uomo" cosa che reputo di una ipocrisia impressionante, dalla parte dell'uomo, si intende
Ok, prova a leggere la DEFINIZIONE di IA (* anche se editor su wikipedia, non l'ho scritta io, GIURO!), poi rileggi il mio post e poi magari rimetti mano alla tastiera (possibilmente per scrivere qualcosa di INTELLIGENTE (per restare in tema, obv) e pertinente). Grazie.
P.S. se poi vuoi darci la TUA definizione di IA che cozza con quanto si intenda comunemente, ok.. illuminaci... ma, COME HO SCRITTO NEL POST (anche la comprensione è effettivamente un livello che avevo dato FORSE ERRONEAMENTE per scontato), diventa un questione di semantica.
(*) «L'intelligenza artificiale (o IA, dalle iniziali delle due parole, in italiano) è una disciplina appartenente all'informatica che studia i fondamenti teorici, le metodologie e le tecniche che consentono la progettazione di sistemi hardware e sistemi di programmi software capaci di fornire all'elaboratore elettronico prestazioni che, a un osservatore comune, sembrerebbero essere di pertinenza esclusiva dell’intelligenza umana.»
Definizioni specifiche possono essere date focalizzandosi o sui processi interni di ragionamento o sul comportamento esterno del sistema intelligente e utilizzando come misura di efficacia o la somiglianza con il comportamento umano o con un comportamento ideale, detto razionale:
1 Agire umanamente: il risultato dell’operazione compiuta dal sistema intelligente non è distinguibile da quella svolta da un umano.
2 Pensare umanamente: il processo che porta il sistema intelligente a risolvere un problema ricalca quello umano. Questo approccio è associato alle scienze cognitive.
3 Pensare razionalmente: il processo che porta il sistema intelligente a risolvere un problema è un procedimento formale che si rifà alla logica.
4 Agire razionalmente: il processo che porta il sistema intelligente a risolvere il problema è quello che gli permette di ottenere il miglior risultato atteso date le informazioni a disposizione.
L'intelligenza artificiale è una disciplina dibattuta tra scienziati e filosofi poiché manifesta aspetti etici oltre che teorici e pratici
hai dimenticato di taggarti
Dove sta scritto che non ci siano problemi anche nelle qualifiche fatte dalle persone? Anche quelle sono regolamentate
Quella che intendi tu è definita IA dura e probabilmente per fortuna è irrealizzabile
E per quella naturale? A volte mi arrabbio con me stesso quando parlo da solo perchè mi trovo idiota. Serve una legge.
Ma non "ti rendi mai conto" delle caz2ate che scrivi?
la gente che se la passa bene ha paura, ha paura di essere sgamata, scovata e punita per i crimini e le porcate che fa....con il controllo umano questo è lento , fallibile, corruttibile , hai la speranza di farla franca. Con l'ai no.
La paura di molti di non farla franca per piccole nefandezze o crimini giustifica gli stessi sulla riga "può capitare anche a me quindi chiudo uno od entrambi gli occhi finchè mi va bene".
La speranza dell'ipocrisia.
Amen porco ca**o.
Se li fa un essere umano ok, se li fa un algoritmo tradizionale ok, se li fai con un modello di machine learning è il d3mon1oo!1!11!1
mi fa sorridere come in molti dei punti evidenziati come "rischio alto" sono già applicati tali tipi di discriminazioni di vario tipo operate dall'uomo solo mediati da valutazioni "più umane". certo, come se il banchiere facesse scelte dettate dal cuore quando ti concede un prestito e come se non si facesse già aiutare da algoritmi di semplice statistica per trarre le conclusioni.
stendiamo un velo pietoso al "rischio inaccettabile" in quanto già oggetto di studio in molti ambiti di modelli per l'analisi della società (leggasi analisi comportamentali per investimenti su linee di prodotti da commercializzare o semplici applicazioni da creare per identificare quello che la gente vuole e darglielo il più in fretta possibile, quale "miglioramento" alla vita di tutti i giorni, come se in mente ci fosse di nuovo il miglioramento)
Esattamente, populismo allo stato puro.
Tra l'altro non escluderei una certa malafede volta a mettere i bastoni tra le ruote a quelli citati sopra (USA, UK, Cina, ecc) per cercare di recuperare il gap.
Senti ma mi presenti il tuo pusher? Ha roba ottima, è evidente.
questa è una regolamentazione basata sul buon senso non sulla conoscenza effettiva della materia, per questo rasenta il ridicolo. scommetto che se chiamassero una serie di esperti in materia comincerebbero a partire da analisi pratiche che però sono ben difficili da comprendere, siccome quindi il politico come sempre vuole la risposta facile e veloce (sarà forse perchè è lui per primo abituato a darla?) chiama gli "esperti" (notare le virgolette) che gli diranno quali sono le implicazioni in modo più che rapido, e aggiungerei soggettivo, portando a questa legiferazione degna della morale comune che si può trovare al bar.
abbiamo capito che tu non hai la minima idea di cosa sia l'IA in pratica.
Ottimo modo per farti copiare il modello e perdere milioni in sviluppo ahah
E poi finisce il film.
Meno male che vengono poste delle regole, anche se onestamente i rischi sono troppo alti, ho già visto troppi film sull'apocalisse e gli esperimenti di microsoft. Una IA funziona bene finchè è dentro una macchina senza internet, ma poi più si evolverà e più imparerà dall'uomo e l'uomo essendo un essere malvagio per natura plasmerà una IA cattiva e quando l'IA avrà un corpo vorrà fare le scarpe all'uomo.
Mi sembra il modo migliore per tagliarsi le pa**e nei confronti della concorrenza americana, cinese, giapponese, koreana, UK, ecc.
Come se poi ci fosse concorrenza, in EU già ora c'è ben poco.
I dataset nel machine learning sono una delle cose più importanti in assoluto, costituiscono un vantaggio competitivo non da poco.
Volete un esempio pratico? NVIDIA ha un catalogo di modelli di machine learning che trovate su NGC. Sono addestrati o da loro o in cooperazione con altri. Chiaramente come linea generale più esempi vede un modello meglio è. Siccome molti loro partner e clienti NON vogliono che i loro dataset vengano visti da tutti (e volendo si può fare anche un reverse enginnering senza avere i dati) hanno introdotto una specie di meccanismo crittografico con il quale tu alleni il modello ma è impossibile risalire ai dati originali. Questo è il livello di "quant'è strategico un dataset".
Voglio proprio vedere in cosa consisterebbe questa "trasparenza sulla qualità dei dataset".
Anche documentazione, cosa significa? Ti spiego com'è fatto il modello? Come l'ho ottenuto? Bah.
Appropriate misure di sorveglianza umana cosa significa?
"mettere regole all'intelligenza artificiale"... non cogliete il (nemmeno troppo) contorto sofismo di tale affermazione? :D
Se è "intelligenza", troverà sempre e comunque un modo per evolversi... altrimenti stiamo parlando di "comandi", istruzioni che non necessitano di "intelligenza"... altrimenti è una questione di semantica in relazione a cosa si intenda per "intelligenza" (artificiale o meno che sia)
Basta burocrazia
Allora voglio 'Skynet'.
:D