
Google 21 Mar
"Bard ha chiuso i battenti il 21 marzo 2023, dopo appena sei mesi dal suo lancio". Così ha risposto Bing al quesito posto al chatbot sullo stato dell'intelligenza artificiale di Google. Se poi volete provare anche voi a chiedere se Bard ha effettivamente chiuso, beh, resterete "delusi" perché il chatbot ha già cambiato parere riportando la risposta corretta: Bard è vivo e vegeto, insomma.
Sul web ci si domanda in che direzione stia andando l'informazione, se è vero che le risposte possono cambiare da un momento all'altro a seconda della direzione del vento (leggasi: dell'interpretazione e scelta delle fonti). Bard è stato chiuso perché non ha avuto successo, diceva Bing nella sua prima versione, facendo riferimento a quanto detto dallo stesso Bard che a sua volta citava come fonte un commento scherzoso pubblicato su Hacker News (in FONTE) in cui si prevedeva la fine prematura del chatbot di Google (vista la fama dell'azienda di Mountain View di chiudere con estrema rapidità i suoi servizi).
i asked bard when it'll (inevitably) be shut down by google
— juan (@juanbuis) March 21, 2023
turns out it's already been shut down due to lack of adoption 🤔 pic.twitter.com/1bovfcpksb
Informazione o disinformazione dell'intelligenza artificiale? I chatbot sono in grado di valutare se una notizia è affidabile o meno in modo autonomo? The Verge parla del pericolo che si scateni "una scia marcia di disinformazione e sfiducia verso il web [...]. Tutto perché Microsoft, Google e OpenAI hanno deciso che la quota di mercato è più importante della sicurezza".
Sorge spontanea un'ulteriore domanda: siamo proprio sicuri che questi sistemi di AI siano in grado di regolarsi da soli, come attualmente affermano le aziende big tech che se ne sono impossessati? Forse non è del tutto sbagliato l'interesse da parte delle istituzioni di mettere dei paletti alla tecnologia così da poterla regolamentare più da vicino.
Galaxy S23 Ultra: come ottenere il massimo grazie ai software di Samsung | Video
SONY ZV-1 II: abbiamo provato la nuova Vlog Camera. Ne vale la pena?
Prime Video: tutti i film e le serie TV in arrivo a giugno 2023
Hisense Europe in Slovenia: dove nascono prodotti e tecnologie per tutto il mondo
Commenti
La fallibilità è data dal fatto che è una tecnologia nuova. Come gli ingegneri capiranno dove sbagliano li correggeranno sempre di più.
Già così io sono rapito ed affascinato. Mi è capitata una risposta errata ieri. L'ho fatto notare a ChatGPT e ha riconsiderato la risposta precendente, correggendosi e aggiungendo dettagli. E siamo solo agli inizi.
Un training errato è deleterio. Ma è un po' come per le persone vissute in contesti sbagliati. La fallibilità rende questa tecnologia quasi più umana.
va beh questo magari è un po' complicato da spiegare.
IA predittiva
Per la rubrica ChatTRLL
È finita Bard, sto più in alto di te (semicit.)
Ohhh che bello, disinformazione e notizie fasulle, cose che mancavano e delle quali avevamo estremo bisogno effettivamente.
Sono sempre più convinto che occorra un buon divulgatore, serio e TECNICO, non giornalisti a caso, fotografi con la passione per i telefoni, e simili, che spieghi bene e che segua questo mondo per far capire alla gente come funziona quello che usa o che userà.
Il livello di spiegazione che si trova nei media mainstream è del tipo "il modello viene allenato su dei dati e poi da degli output", che è l'equivalente di dire che un termosifone scalda, una macchina si muove o che un carro armato spara.
Bisognerebbe spiegare come funziona, perchè si usa questa tecnica e non altre, ecc.
Ed è strano che non sia ancora accaduto perchè di divulgazione "per le masse" anche abbastanza approfondita c'è per altri argomenti, vedi biologia, nucleare, fisica, geologia.
Bah, ho visto umani fare di peggio.
Comunque sembra che l'errore sia dovuto al fatto che entrambi si sono affidati ad una sola fonte. Ecco, magari mettere un limite minimo di riscontri prima di far affermare qualcosa, potrebbe essere un modo per evitare questa cosa.
Se poi si vuole che comunque risponda, potrebbe "non affermare" ma dire "non lo so, qui però se ne parla, valuta tu!" o qualcosa del genere