
Tecnologia 07 Feb
09 Febbraio 2023 44
Sarà un bene credere ai vari chatbot stile ChatGPT o Bard? Ce lo si inizia a chiedere sempre più diffusamente ora che la tecnologia si sta via via espandendo ed un numero crescente di persone - dai semplici utenti fino ai ricercatori accademici - la sta utilizzando per diversi scopi. C'è chi la usa per fare musica con la voce (falsa) di Eminem - è il caso del DJ David Guetta - e c'è chi invece la sfrutta senza ritegno per "scrivere" paper scientifici.
Eppure Microsoft e Google ci credono, e stanno investendo tantissimo per trasformare i loro rispettivi motori di ricerca in un qualcosa di più, capace di interagire e rispondere a domande strutturate, sino a creare qualcosa di nuovo. Ma c'è un problema: il chatbot è sostanzialmente bugiardo.
Torniamo a Bard: una GIF pubblicata da Google sul blog ufficiale subito dopo l'annuncio mostra l'AI intenta a rispondere alla seguente domanda:
Quali nuove scoperte dal telescopio spaziale James Webb posso raccontare a mio figlio di 9 anni?
Tra le tre risposte fornite da Bard ce n'è una (la terza) che non è sfuggita a diversi astronomi che su Twitter hanno smascherato la bugia. Questa la risposta di Bard:
Il telescopio ha scattato la prima foto in assoluto di un pianeta al di fuori del nostro sistema solare.
Falso: la prima immagine di un exopianeta risale al 2004: si tratta di 2M1207b, immortalato dal Very Large Telescope (foto in apertura, il pianeta è quello piccolo rosso). Un astrofisico ha ironicamente apprezzato il fatto che Google abbia utilizzato il James Webb Telescope per pubblicizzare il proprio LLM (large language model), specificando tuttavia che il più delle volte questi chatbot forniscono risposte quasi sempre sbagliate. "Sarà interessante vedere un futuro in cui LLM sarà in grado di fare un auto-check dei propri errori".
Il problema di fondo sta nella natura stessa del chatbot, "probabilistico e non deterministico", come bene spiega The Verge, in quanto costruisce una risposta sulla base della corretta sequenza delle parole e non su un database interno. Per questo motivo c'è chi tra gli esperti di intelligenza artificiale ha definito i chatbot "generatori di ca***te".
Tanto Microsoft quanto Google promettono controlli rigorosi dall'interno, e invitano gli utenti a segnalare eventuali errori in modo tale che i rispettivi sistemi possano imparare e migliorare.
Nokia G22 vs Fairphone 4: smartphone sostenibili e riparabili con tante differenze
Bing Image Creator: ora basta chiedere per generare un'immagine qualsiasi
Recensione 70Mai Omni: la Dash Cam a 360° con ADAS ci è piaciuta! | Video
Paramount+, tutti i film e le serie TV in arrivo ad aprile 2023
Commenti
Ah cacchio, non avevo fatto caso a chi fosse! :D
Me sto a fà vecchio, altrochè.
Mi piace che gli hai risposto con un commento serio
per suffragare o confutare la tua tesi si dovrebbe prima disquisire di cosa sia l'intelligenza. Spoiler: ne esistono di molti tipi e le IA sono molto stupide nel 99,9% dei casi, qualsiasi tipo di intelligenza si prenda in considerazione ad eccezione di una: la capacità di calcolo e di inferenza.
Ma non si doveva chiamare Sparrow?
Credo che in questo momento a Mountain View la disperazione sia così fitta da doverla tagliere con la motosega.
Google dimostra che non è facile creare AI facilmente.
Per fare un pappagallo basta un comune software ... non serve una mente
Prese a "testate" un po' e al momento sono utili come la carta vetrata per pulirsi dove non batte il sole...
E' bordo...
Bordello
Chiamarli giornalisti è un complimento
Scherzi a parte... HDBlog é l'unico portale in cui non ho sentito il termine "pallone spia cinese". Termine che non é stato mai usato nemmeno in America. Eppure in Europa non si faceva altro che dire che fosse un pallone spia, prima ancora di sapere cosa davvero ci fosse attacato.
Il problema qui é che hanno creato il video per mostrare la potenza di Bard. E' come se la Ferrari mostrasse un nuovo veicolo e il giorno della presentazione si staccassero 2 ruote.
Forse la prendi sul ridere, ma gli ingegneri verrebbero licenziati. Google ha creato un video della risposta e gli ingegneri hanno visto la risposta. Eppure, alla presentazione hanno mostrato una frase completamente falsa.
E' questo il punto.
Il bello è che quindi non ci possiamo fidare e ci sarà da fare il doppio del lavoro per vedere se quello che ha scritto è giusto. E a volte coesistono anche più verità, magari una delle quali scoraggiate dai feedback negativi o da un maggior numero di quelli positivi
In realtà no
Non è molto bardo..
Infatti, se ad esempio l'Encicolpedia Britannica usa un proprio chatbot per fornire risposte è un conto, se si usano i risultati del web ad esempio in base alla popolarità tanti saluti all'attendibilità
Guarda credo ti stupirebbe, ero riuscito a farle scrivere una canzone rap con citazioni di Fantozzi XD
E' vero alcuni sono ridicoli.
Per fortuna compro solo Libero.
Io invece cosa pensa del ponte tra Messina e Reggio Calabria.
Ora gli chiedo se conosce Amici Miei.
Beh i giornalisti italiani (che sono umani) fanno proprio così.
Specie quelli di Mediaset.
James?
Hai visto troppi film di Kubrick.
Esattamente.
Non sapevo come funzionassero questi bot intelligenti.
Ma ora che lo so non li userò di sicuro.
è anche possibile, ma a quella prima del 2004 hanno fatto seguito altre foto negli anni seguenti, per cui il primato non sarebbe comunque del webb.
È sicuro che non ha ancora coscienza.
Sono confusi sul target. Se voglio un'informazione precisa, ci deve essere un database e non una IA. Se voglio un parere allora serve la IA, che mi dica "è probabile che le cose stiano così perché ecc." . La IA non usa database quindi appunto non è deterministica, fornisce una sua opinione sulla base del "rumore" informativo che legge online. Quindi bene l'uso delle IA ma non come motore di ricerca di informazioni puntuali. Per questo stanno perdendo le milionate in borsa
Te lo immagini ChatGPT che ha avuto accesso soltanto ai commenti di HDblog?
Comunque sia, l'umano fra 5 anni sarà 10 volte più idio-- mentre la IA 100 volte più intelligente. Non ci scommetterei contro, per quanto oggi possa essere fallace
hdblog
Per una volta una trollata intelligente!
Non succeda più, eh!
Web
Ma le informazioni che dà, da dove le prende?
Se lo usi come motore di ricerca no, non può essere probabilistico, non può interpretare o usare una coscienza o creatività.
Io invece leggo i commenti di comatrix
Secondo me invece è partito bene, sbagliare è umano e quindi l'A.I. di Google si sta avvicinando al target finale.
nome in codice:
Bard il trollatore!!!
https://media4.giphy.com/me...
Ho usato abbastanza ChatGPT ultimamente, credo sia stupendo, ma al di là dei soliti video clickbait e di articoli sensazionalistici, la realtà dei fatti è che effettivamente spesso spara un sacco di fre_gnacce, ma lo fa in modo molto convincente :D
Se si è esperti di qualcosa allora si riesce a gestirla e portarla su un piano utile, se la si usa per conoscere o avere risposte utile il rischio di una superca_zzola è estremamente alto, rischiando di dar retta a cose completamente inventate.
Bisogna saperci parlare, capire come porre le domande o come parlare con lei, a quel punto diventa abbastanza interessante. C'è sempre da ricordare che la sua memoria arriva massimo a 3000 caratteri, oltre a quelli non ricorda più cosa è stato scritto prima.
Io chiederei a Bard cosa pensa del tunnel tra il CERN e il gran sasso
Fatemelo dire eccoli lì gli astronomi indignati che si mettono a leggere riga per riga per puntare il dito sull'errore. Tuttavia bisogna considerare che 2M1207 è una nana bruna e 2M1207b potrebbe essere nato dal collasso gravitazionale della nube gassosa quindi andrebbe riclassificato come sub-nana bruna, d'altronde ha una temperatura superficiale di 1300°C, un posto invivibile anche per TalpaGamer99.
Un normale motore di ricerca genera una serie di risultati ed è l'utente ad effettuare, sotto la propria responsabilità, la selezione di quelli che ritiene più attendibili. Nel caso dei chatbot la scelta viene operata dall'intelligenza artificiale e proprio per questo l'affidabilità delle fonti dovrebbe essere la principale preoccupazione degli sviluppatori. Se no sta nuova tecnologia non serve a nulla
ChatGPT scrive una serie impressionante di str*zate dal primo minuto, di che cosa parliamo?
La vera rivoluzione sarebbe che le testate non specialistiche evitassero di scrivere articoli stile tabloid su temi prettamente tecnico-scientifici.
Anche GPT è totalmente inaffidabile. E' simpatico colloquiare con lui ma purtroppo quando si entra nello specifico fornisce sempre informazioni sbagliate. Poi tu lo correggi, lui ammette di aver sbagliato ma il giorno dopo se torni alla questione continua a fornire informazioni false e sbagliate. Non ci siamo proprio.
Non so perchè in questo ultimo mese hanno accelerato cosi tanto, queste tecnologia non sono ancora pronte. Per quanto ChatGPT sia impressionante, deve essere usata da "chi sa cosa sta usando" perchè per quanto possa essere comoda e utile, bisogna partire appunto dal presupposto che potrebbe aver detto ca**ate. Penso che una cosa del genere non sia accettabile per "il grande pubblico" trovarsi delle risposte errate durante una ricerca. Non vorrei che per questa smania di arrivare primi, brucino questa tecnologia come hanno fatto con i chatbot che li avevano integrati in ogni chat di supporto salvo poi correre ai ripari.