
03 Novembre 2020
Sundar Pichai - da poco diventato CEO sia di Google che di Alphabet - si è recentemente espresso sulla necessità di regolamentare il mondo dell'intelligenza artificiale. Si tratta senza dubbio di un tema centrale della nostra epoca, vista la rapida diffusione che l'AI sta avendo in tantissimi aspetti della vita umana. Sono sempre di più i processi che vengono gradualmente automatizzati e resi più efficienti da un algoritmo, tuttavia ciò apre a scenari ancora inesplorati e potenzialmente pericolosi, come messo in evidenza già qualche anno fa da un prestigioso team di ricerca.
Anche Pichai si trova quindi favorevole alla definizione di regole sul come l'intelligenza artificiale debba essere impiegata, in modo da evitare che il suo utilizzo sia dettato principalmente dalle leggi del mercato e non dal buon senso. Il parere del CEO di Google è stato riportato nel corso di un'intervista al Financial Times (in Fonte), nella quale Pichai mette subito in risalto il principale problema - a suo modo di vedere - alla base della regolamentazione:il modo in cui questa debba essere effettuata.
Sino ad ora abbiamo visto come le grandi potenze mondiali non abbiano svolto grandi passi in questo senso, apparentemente. Ad esempio, l'Europa si è limitata a varare un codice etico, che non può certo essere inteso come vera e propria regolamentazione. Il motivo di ciò è uno: secondo Pichai, infatti, non è facile capire come affrontare il tema e cita alcuni esempi di invenzioni molto utili avvenute durante la storia dell'uomo, i cui effetti però non sono sempre stati positivi.
Uno tra tutti è proprio internet, più precisamente la sua diffusione. Sebbene i vantaggi di questa invenzione siano sotto gli occhi di tutti, è anche vero che il suo sviluppo senza regole ha portato alla diffusione di tantissima disinformazione, causando problemi che si sono ripercossi persino nella vita politica di molti Paesi.
L'approccio suggerito da Pichai è molto interessante, in quanto ricalca proprio ciò che è stato fatto sino ad ora dall'Unione Europea, organismo spesso considerato lento e arretrato, non in grado di seguire la rapida evoluzione di questi temi. Si parla infatti della definizione di codici e linee guida, considerando anche la necessità di creare dei punti condivisi a livello internazionale, in modo da creare degli standard globali. Sempre secondo Pichai, il GDPR è un ottimo punto di partenza da cui andare avanti.
Google ha già affrontato questa fase internamente, arrivando a definire delle linee guida già nel 2018. Queste vennero stabilite in seguito al crescente dissenso tra gli stessi dipendenti della società, i quali non tolleravano il coinvolgimento delle tecnologie AI di Google in campi critici, come quello militare. Grazie alle linee guida, la posizione dell'azienda su determinati temi è molto meno ambigua ed è più semplice sapere in quali campi opererà e in quali no.
Questo bagaglio di esperienze, suggerisce Pichai, può essere messo a frutto per aiutare i governi ad approfondire il tema della regolamentazione delle AI, dal momento che Alphabet e Google vogliono proporsi come dei collaboratori attivi per tutte le realtà che intendono delineare delle linee guida. Queste, secondo il CEO, dovrebbero tenere presente di criteri come sicurezza, equità, responsabilità e chiarezza.
Un altro aspetto da considerare è quello legato al bilanciamento corretto tra benefici e rischi, riprendendo quindi l'insegnamento che ci ha offerto l'esempio citato poco sopra. In particolare è bene prestare grossa attenzione all'applicazione dell'intelligenza artificiale in tutti quei campi di forte impatto sociale, nei quali un freddo algoritmo potrebbe magari prendere in considerazione la soluzione più efficiente e non quella più equa.
Pichai parla anche dell'applicazione dell'AI al campo della medicina - per il quale molte delle attuali regole del settore rappresentano un altro buon punto di partenza - e quello della guida autonoma, dove è necessario che i governi intervengano tenendo bene in mente l'analisi costi (non solo monetari) benefici che Pichai auspica. Questi due campi non vengono citati casualmente, dal momento che Google sta lavorando attivamente in entrambi i settori con Google Health, Verily e Waymo.
Insomma, sebbene l'intelligenza artificiale rappresenti una grossa possibilità per lo sviluppo dell'uomo, è bene tenere presente che gli scenari peggiori potrebbero vanificare ogni effetto positivo delle AI, quindi è di cruciale importanza accertarsi che lo sviluppo di queste tecnologie avvenga in maniera responsabile e a vantaggio della collettività.
Recensione Samsung Galaxy Tab S9 Ultra 5G: un ulteriore passo in avanti! | VIDEO
iPhone 15 Pro Max vs 14 Pro Max: tutte le differenze e le nostre impressioni | VIDEO
Fiat 600e, ecco come va il nuovo B-SUV elettrico | Video
Recensione Ecovacs Deebot X2 Omni: si fa quadrato ma pulisce a tutto tondo | VIDEO
Commenti
Una domanda che può avere mille significati.
Complimenti.
"un freddo algoritmo potrebbe magari prendere in considerazione la soluzione più efficiente e non quella più equa"
Esattamente, e di scenari dove potrebbe succedere ce ne potrebbero esser molti, chiaro è non domani, ma in un futuro dove la IA sarà sempre più presente delle regole devono essere imposte.
Paura della libertà?
io penso che debba essere regolamentata Google.
Lo facciamo già con la nostra testa.
E infinitamente meglio, visto che abbiamo alle spalle un'evoluzioni di 10 milioni di anni circa.
Non scherziamo
Anche no... ci sono delle leggi nella nostra società.
Regolamentiamo google e poi tutto il resto vien da sé ?
La D.A. è invece in grandissimo sviluppo ormai da anni e con enorme successo!
(Demenza Artificiale)
:D :D :D
tutto molto giusto. ma il bello dell'intelligenza è potersi esprimere senza limiti...