
19 Maggio 2021
Si parla di intelligenza artificiale e di linguaggio naturale al keynote di apertura del Google I/O 2021 che stiamo seguendo in diretta in questo momento. Una delle prime novità annunciate è LaMDA (Language Model for Dialogue Applications), progetto in sviluppo all''interno dell'azienda di Mountain View che ha tuttavia già raggiunto importanti traguardi nel campo della conversazione naturale.
Possiamo parlare di machine learning all'ennesima potenza che ci consentirà di interloquire con l'assistente vocale e con il sistema di ricerca nel modo più colloquiale possibile, senza frasi pre-impostate, esattamente come se stessimo parlando con una persona reale: insomma, con LaMDA il linguaggio diventa più versatile, con sfumature. Non solo: alla domanda secca con risposta altrettanto secca (tipico dei chatbot) viene sostituito un modo più aperto di interagire, proprio come accade nelle conversazioni fisiche. Sai dove parti, ma non sai mai dove vai a finire. E Google, con questo progetto, è riuscita a replicare tale comportamento naturale, abilitando il sistema a coprire simultaneamente più di un argomento. "Una chiacchierata con un amico su uno show televisivo potrebbe evolversi in una discussione sul Paese in cui è stato girato lo spettacolo prima di iniziare un dibattito sulla migliore cucina regionale di quel Paese", spiega sempre Google.
LaMDA si basa sull'architettura di rete neurale Transformer, resa open source da Google nel 2017. Sono le stesse fondamenta di BERT, con cui Google ha cercato di rendere più naturale e precisa la query a Google Search verso la fine del 2019. Così come BERT, anche LaMDA può essere educata per leggere parole o intere frasi, e soprattutto per capire nel miglior modo possibile come queste parole interagiscano/si combinino fra loro al fine di predire le successive parole per ottimizzare il risultato della ricerca.
A differenza degli altri sistemi linguistici - BERT incluso - LaMDA è stata educata sul dialogo e sulle sfumature che questo ha nel suo divenire. Sensibilità (ovvero il dare una risposta che abbia senso) e specificità (che sia precisa e a fuoco) delle risposte sono gli elementi che la contraddistinguono, e i risultati sinora ottenuti sono già particolarmente promettenti. Si dovrà lavorare a fondo anche sulla correttezza delle risposte, visto che l'outcome non deve solamente essere sensibile e specifico, ma anche veritiero.
Ultimo aspetto, ma non certo per importanza, è il rispetto ai principi dell'intelligenza artificiale affinché il modello non venga utilizzato in modo improprio (odio, pregiudizi, informazioni fuorvianti).
Commenti
Questo lo faceva già, adesso se gli rispondi no, ti dice: "dai oh, non ero attenta!"
Ritirando non è il termine giusto. Almeno per Apple che ha rinunciato a competere solo nel breve termine per una scelta ben precisa: non utilizzare i megadati in cluod per il suo sviluppo e utilizzo e ciò per mettere la privacy alla base del sistema . Questo ne rallenta incredibilmente lo sviluppo ma nel lungo termine avrà creato un sistema basato solo su AI e machine learning svolta in locale. Nel frattempo i suoi clienti possono comunque usare sia Siri che le piattaforme concorrenti e non vengono quindi penalizzati
E se poi te ne penti?
https://www.youtube.com/watch?v=aUSSfo5nCdM
"[...] Il mio pianeta preferito, Plutone".
Ok, e qual è il tuo animale preferito? E il tuo colore preferito? Preferisci cane o gatto?
Questa e altre domande e risposte di interesse assoluto nel prossimo episodio.
È probabile che i miglioramenti nell’AGI (Artificial General Intelligence) si vedranno attraverso modelli di linguaggio complessi come questo. Ti consiglio di leggere il paper di GPT-3 “Language Models are few shot learners” che mostra come un modello pensato per generare del testo si sia rivelato molto più versatile di quanto immaginato, per esempio imparando il concetto di addizioni/moltiplicazioni anche se nel dataset di partenza (Wikipedia) ce n’erano solo qualche decina!
Se la lettura del paper ti sembra complicata ti consiglio questo commento di Yannic Kilcher (a mio avviso il miglior YouTuber per restare aggiornati sugli ultimi progressi in ML/AI):
https://youtu.be/SY5PvZrJhLE
"Sensibilità (ovvero il dare una risposta che abbia senso)"... ok che è un blog tecnologico, ma magari una rilettura agli articoli sarebbe il caso di ridarla!
"Scusa, non ho capito, puoi ripetere?" XD
Tra tutti gli avanzamenti dell'AI negli ultimi anni non c'è stato nessun significativo progresso nell'intelligenza artificiale generale. Quindi no, non così almeno.
Tutto vero, ma questo non c'entra niente con quello che si intende per "pensare".
Sarà anche stupido e forse un pò lo è, ma per capire dovresti vedere il film Automata del 2014.
A un certo punto parla di sviluppo dell'AI, dopo che ha imparato a pensare autonomamente.
;)
Argomenta se puoi.
Beh insomma. Di passi avanti ne sono stati fatti tantissimi. Soprattutto con Google e Amazon in prima linea. Giganti come Microsoft e Apple hanno già mollato l'osso e si stanno ritirando (,sconfitti) dal mercato
Vedremo nel 2031 quando sarà rilasciato in italiano come sarà!
Sono eoni che si parla di linguaggio naturale, ma stiamo sempre li
Per ipotesi, se una macchina artificiale iniziasse a essere conscia, noi non potremmo neanche immaginare che cosa arriverebbe a pensare.
Solo una cosa arriveremmo a capire, se il 'pensiero' in quanto tale è simile anche per una macchina.
Non so se mi sono spiegato bene. ;)
Sicuramente, Google sta lavorando davvero tanto sul concetto di contesto e se ci pensi già ora hanno mostrato la capacità di una macchina di creare qualcosa di nuovo partendo da altre conoscenze.
In arrivo la supercazzola! :D
E se poi si offende?
No
"Allenando" e cercando di assistere questo tipo di intelligenza artificiale sarà possibile portarla a "pensare"?