Google rivoluziona il linguaggio: con LaMDA le conversazioni diventano naturali

18 Maggio 2021 20

Si parla di intelligenza artificiale e di linguaggio naturale al keynote di apertura del Google I/O 2021 che stiamo seguendo in diretta in questo momento. Una delle prime novità annunciate è LaMDA (Language Model for Dialogue Applications), progetto in sviluppo all''interno dell'azienda di Mountain View che ha tuttavia già raggiunto importanti traguardi nel campo della conversazione naturale.

COS'É

Possiamo parlare di machine learning all'ennesima potenza che ci consentirà di interloquire con l'assistente vocale e con il sistema di ricerca nel modo più colloquiale possibile, senza frasi pre-impostate, esattamente come se stessimo parlando con una persona reale: insomma, con LaMDA il linguaggio diventa più versatile, con sfumature. Non solo: alla domanda secca con risposta altrettanto secca (tipico dei chatbot) viene sostituito un modo più aperto di interagire, proprio come accade nelle conversazioni fisiche. Sai dove parti, ma non sai mai dove vai a finire. E Google, con questo progetto, è riuscita a replicare tale comportamento naturale, abilitando il sistema a coprire simultaneamente più di un argomento. "Una chiacchierata con un amico su uno show televisivo potrebbe evolversi in una discussione sul Paese in cui è stato girato lo spettacolo prima di iniziare un dibattito sulla migliore cucina regionale di quel Paese", spiega sempre Google.

SENSIBILITÀ, SPECIFICITÀ E CORRETTEZZA

LaMDA si basa sull'architettura di rete neurale Transformer, resa open source da Google nel 2017. Sono le stesse fondamenta di BERT, con cui Google ha cercato di rendere più naturale e precisa la query a Google Search verso la fine del 2019. Così come BERT, anche LaMDA può essere educata per leggere parole o intere frasi, e soprattutto per capire nel miglior modo possibile come queste parole interagiscano/si combinino fra loro al fine di predire le successive parole per ottimizzare il risultato della ricerca.

A differenza degli altri sistemi linguistici - BERT incluso - LaMDA è stata educata sul dialogo e sulle sfumature che questo ha nel suo divenire. Sensibilità (ovvero il dare una risposta che abbia senso) e specificità (che sia precisa e a fuoco) delle risposte sono gli elementi che la contraddistinguono, e i risultati sinora ottenuti sono già particolarmente promettenti. Si dovrà lavorare a fondo anche sulla correttezza delle risposte, visto che l'outcome non deve solamente essere sensibile e specifico, ma anche veritiero.

Ultimo aspetto, ma non certo per importanza, è il rispetto ai principi dell'intelligenza artificiale affinché il modello non venga utilizzato in modo improprio (odio, pregiudizi, informazioni fuorvianti).


20

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
emmeking

Questo lo faceva già, adesso se gli rispondi no, ti dice: "dai oh, non ero attenta!"

optimus81

Ritirando non è il termine giusto. Almeno per Apple che ha rinunciato a competere solo nel breve termine per una scelta ben precisa: non utilizzare i megadati in cluod per il suo sviluppo e utilizzo e ciò per mettere la privacy alla base del sistema . Questo ne rallenta incredibilmente lo sviluppo ma nel lungo termine avrà creato un sistema basato solo su AI e machine learning svolta in locale. Nel frattempo i suoi clienti possono comunque usare sia Siri che le piattaforme concorrenti e non vengono quindi penalizzati

rsMkII

E se poi te ne penti?

rsMkII

https://www.youtube.com/watch?v=aUSSfo5nCdM
"[...] Il mio pianeta preferito, Plutone".
Ok, e qual è il tuo animale preferito? E il tuo colore preferito? Preferisci cane o gatto?
Questa e altre domande e risposte di interesse assoluto nel prossimo episodio.

Kevin

È probabile che i miglioramenti nell’AGI (Artificial General Intelligence) si vedranno attraverso modelli di linguaggio complessi come questo. Ti consiglio di leggere il paper di GPT-3 “Language Models are few shot learners” che mostra come un modello pensato per generare del testo si sia rivelato molto più versatile di quanto immaginato, per esempio imparando il concetto di addizioni/moltiplicazioni anche se nel dataset di partenza (Wikipedia) ce n’erano solo qualche decina!
Se la lettura del paper ti sembra complicata ti consiglio questo commento di Yannic Kilcher (a mio avviso il miglior YouTuber per restare aggiornati sugli ultimi progressi in ML/AI): https://youtu.be/SY5PvZrJhLE

riccardo tasso

"Sensibilità (ovvero il dare una risposta che abbia senso)"... ok che è un blog tecnologico, ma magari una rilettura agli articoli sarebbe il caso di ridarla!

LungaPace& Prosperità

"Scusa, non ho capito, puoi ripetere?" XD

ameft

Tra tutti gli avanzamenti dell'AI negli ultimi anni non c'è stato nessun significativo progresso nell'intelligenza artificiale generale. Quindi no, non così almeno.

ameft

Tutto vero, ma questo non c'entra niente con quello che si intende per "pensare".

Sarà anche stupido e forse un pò lo è, ma per capire dovresti vedere il film Automata del 2014.
A un certo punto parla di sviluppo dell'AI, dopo che ha imparato a pensare autonomamente.
;)

nutci2nd

Argomenta se puoi.

Rick Deckard®

Beh insomma. Di passi avanti ne sono stati fatti tantissimi. Soprattutto con Google e Amazon in prima linea. Giganti come Microsoft e Apple hanno già mollato l'osso e si stanno ritirando (,sconfitti) dal mercato

virtual

Vedremo nel 2031 quando sarà rilasciato in italiano come sarà!

Adri949

Sono eoni che si parla di linguaggio naturale, ma stiamo sempre li

Per ipotesi, se una macchina artificiale iniziasse a essere conscia, noi non potremmo neanche immaginare che cosa arriverebbe a pensare.
Solo una cosa arriveremmo a capire, se il 'pensiero' in quanto tale è simile anche per una macchina.
Non so se mi sono spiegato bene. ;)

CavalloCrop

Sicuramente, Google sta lavorando davvero tanto sul concetto di contesto e se ci pensi già ora hanno mostrato la capacità di una macchina di creare qualcosa di nuovo partendo da altre conoscenze.

zdnko
Non solo: alla domanda secca con risposta altrettanto secca viene sostituito un modo più aperto di interagire, proprio come accade nelle conversazioni fisiche.


In arrivo la supercazzola! :D

Estiquaatsi

E se poi si offende?

Vittorio

No

nutci2nd

"Allenando" e cercando di assistere questo tipo di intelligenza artificiale sarà possibile portarla a "pensare"?

Recensione Xiaomi 13 Pro: TOP in tutto, anche nel prezzo! | Video

Recensione Galaxy S23: il "piccolino" è quello da comprare! | VIDEO

Recensione Oppo Find N2 Flip, mi ha già convinto!

Una giornata con Samsung Galaxy S23: live batteria dalle 8.30