ChatGPT un pericolo concreto se non ci sono regole: l'evoluzione tra proposte e test

26 Gennaio 2023 64

ChatGPT rientra sicuramente tra gli argomenti più discussi di queste settimane, la super intelligenza artificiale di OpenAI ha dimostrato in più occasioni di essere incredibilmente potente, o perlomeno di avere grandi potenzialità per il futuro man mano che gli sviluppatori continueranno ad aggiornarla ed affinarla - anche se non sempre con metodologie propriamente etiche, come si è visto. Una dimostrazione di quanto l'IA avanzata possa essere considerata cruciale ed economicamente allettante è il maxi-investimento compiuto da Microsoft.

E non mancano neppure le critiche: c'è chi ritiene ChatGPT terreno fertile per i cybercriminali, e c'è anche chi teme di perdere la leadership nel campo dei motori di ricerca. Ma la capacità che questa nuova generazione di intelligenza artificiale ha di proporre un linguaggio pressoché naturale sta iniziando a preoccupare anche il mondo della pubblicazione scientifica a causa della crescente difficoltà (apparente?) di distinguere tra un testo scritto da un bot da uno di un essere umano in carne ed ossa. Alcuni scienziati, riporta Nature, starebbero utilizzando l'AI avanzata già da tempo a supporto della loro ricerca.

SPRINGER NON CI STA E DETTA LE REGOLE

Il problema, sottolinea la stessa Nature dello storico gruppo editoriale Springer, è che ora l'intelligenza artificiale è a portata di tutti: ne è una dimostrazione il fatto che OpenAI abbia messo a disposizione una versione demo gratuitamente a tutti coloro che manifestavano interesse a provarla. La stragrande maggioranza di questo pubblico è costituita da persone prive di competenze tecniche su ciò che stanno producendo con l'ausilio di ChatGPT:

Milioni di persone lo stanno usando e il risultato è stata un'esplosione di esperimenti di scrittura divertenti e talvolta spaventosi.

Si pensi addirittura che

ChatGPT [...] ha prodotto abstract di ricerca abbastanza buoni che gli scienziati hanno trovato difficile capire che li aveva scritti un computer.

Comodo per alcuni, dunque, pericoloso per altri: l'IA potrebbe essere utilizzata su vasta scala per spam, ransomware e, in generale, attacchi informatici. Senza dimenticare l'inganno: da una tesi di laurea ad un elaborato di ricerca tutto è ora a rischio, in quanto non è facile (e non lo sarà sempre più in futuro) andare ad individuare il vero autore di un determinato testo.

Urgono dunque regole di base sull'uso etico degli LLM da parte di editori e autori. Springer Nature ha dunque definito i seguenti princìpi:

  1. "nessuno strumento LLM [modelli li linguaggio di grandi dimensioni, ndr] sarà accettato come autore accreditato su un motore di ricerca". Motivo: l'autore di un testo è responsabile del suo lavoro, l'IA non può assumersi questa responsabilità
  2. chi usa strumenti LLM è tenuto a riportarlo nell'articolo/testo

Il pericolo che un testo frutto di una intelligenza artificiale venga tacciato come lavoro di un essere umano è concreto ma dipende comunque da diversi fattori. Un modo utile per smascherare eventuali frodi è verificare la presenza o meno nel testo delle fonti: ChatGPT sarà estremamente avanzata ma non è ad oggi ancora in grado di citarle in modo autonomo. Esistono tecnologie capaci di smascherare i bot che si sostituiscono all'essere umano per scrivere testi, ma gli LLM stanno avanzando sempre più rapidamente anche in questo ambito per nascondere la loro entità.

LE PROVE DI CNET

C'è chi l'intelligenza artificiale la sta utilizzando per scrivere articoli online (noi in HDblog restiamo esseri umani in carne ed ossa): è, questo, il caso del team editoriale di CNET Money, che ha sperimentato "un motore di intelligenza artificiale progettato internamente, non ChatGPT, per aiutare gli editori a creare una serie di spiegazioni di base sugli argomenti dei servizi finanziari".

I contenuti editoriali coinvolti in questa sperimentazioni sono stati 77, ovvero l'1% del pubblicato di quel periodo. Ebbene, a seguito di una serie di errori emersi da uno di quegli articoli, la stessa CNET ha eseguito un audit su tutti i testi pubblicati dall'intelligenza artificiale, facendo emergere che gli errori - più o meno gravi - erano presenti in 41 articoli.

Da diverso tempo CNET porta avanti questo "test", con l'obiettivo di ottimizzare i contenuti a fini di SEO ed affiliazione. Gli scarsi risultati hanno portato la società madre del popolare sito web ad interrompere le sperimentazioni, anche se in una nota si legge:

Abbiamo messo in pausa e ricominceremo ad utilizzare lo strumento di IA quando saremo sicuri che questo e i nostri processi editoriali saranno in grado di prevenire gli errori sia umani che dell'intelligenza artificiale.

Si tenga comunque presente che CNET ha condotto questo studio alla luce del sole, specificando quando l'articolo pubblicato era frutto di un'IA o se invece era a firma di un autore reale. Nelle note di ciascun testo viene poi indicato che

la storia è stata creata in parte con il nostro motore di intelligenza artificiale. Poiché ognuno dei nostri articoli viene rivisto e modificato da un editore umano, questi condivide anche una co-firma.

Credits immagini: Pixabay


64

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
UnoQualunque

Per quanto siano imperfetti ora mai anche io uso spesso ChatGPT per sistemare presentazioni in cui non mi piace la forma oppure per scrivere parti di codice in powershell. Ovviamente non ci si può fidare ad occhi chiusi, le presentazioni me le sistemava alla perfezione ma la base era la mia e per gli script, ho risolto molto più in fretta con la IA che con la solita ricerca in vari articoli. La sto utilizzando anche per ricerche e domande delle quali non conoscevo bene la risposta (sempre per cose tecniche), li il dubbio che si sia "inventata" la risposta c'è sempre, ma facendo una ricerca su google partendo dalle sue risposte spesso sono riuscito a farmi un'idea sulla quale prima avevo un po di confusione.

Federico

Alcune figure professionali ne soffriranno, e noi analisti software siamo fra queste.
Altre professionalità capisci di trarre da questo tipo di intelligenza artificiale avanzatissima si renderanno necessarie, e saranno soprattutto persone di formazione prettamente umanistica con particolare riferimento alla filosofia.

Non lo sto usando per lo sviluppo, d'altronde ho sempre teso a scrivere tutto, limitando anche l'uso delle librerie.

I miei dialoghi con ChatGPT riguardano soprattutto una serie di test sistematici studiati a tavolino e finalizzati a studiarne la natura.
Tuttavia non disdegno neppure farci quattro chiacchiere su temi di cultura generale, letteratura e, spesso, fisica teorica.
La letteratura mi ha consentito di scoprire autori che non conoscevo, e lui è molto bravo nel comprendere le trame dei libri e dare suggerimenti su autori e titoli simili.
La fisica mi ha aiutato molto a fugare alcuni dubbi che avevo riguardo all'entanglement ed ai primi nanosecondi di esistenza dell'universo, argomenti ostici che avevo sempre rimandato di approfondire.
Debbo dire che una volta fatta lcabitudine a ragionare assieme a lui, quindi non "usandolo" ma facendosi coadiuvare, si ottengono notevoli risultati che accrescono entrambe le parti.
Purtroppo per ora non gli è concesso ricordare le precedenti sessioni, cosa che ne limita non poco lo sviluppo

icos

Secondo me e' uno strumento come tanti altri e come tale puo' essere usato bene oppure male. Sta alla persona saper usare questo strumento in modo profittevole (o sapere che non e' adatto al proprio caso d'uso).
Ad oggi non so quale sia l'impatto nei vari contesti professionali, l'unico che conosco e' quello dello sviluppo software e strumenti come Copilot personalmente li trovo piuttosto utili. Non scrive un intera codebase in autonomia, commette errori ma al contempo produce risultati di qualita' sufficiente a velocizzare il lavoro. E' l'autocompletamento che gli IDE offrono da anni ma in versione 2.0 :)

Federico

Gli errori sono inevitabili quando si ha a che fare con oggetti basati su processi cognitivi.
A non commentare mai errori, a meno di malfunzionamenti o cattiva programmazione, sono le macchine.
Una intelligenza artificiale di questo livello non è una macchina, o strumento che dir si voglia, ma un partner, e credo sia proprio questo a spaventare.

Federico

Magari sapessi un millesimo delle cose che sa lui m

I.love.Alessandra.Ambrosio

Ehi chatgpt, sei tu..?

Roberto85

Tutti che si concentrano sulla parte tecnica, giustamente, ma è stupendo dal punto di vista ludico-narrativo, puoi fargli sviluppare un'avventura testuale in tempo reale che si adatta alle tue esigenze, alle tue scelte e ai tuoi gusti.
Deve essere ancora molto rifinita, troppo buonista per i miei gusti, non devia mai troppo dal seminato, e non si esprime ancora in un linguaggio considerabile perfettamente scorrevole, ma se lo perfezioneranno se ne vedranno delle belle.

icos

Onestamente non vedo dove sia il problema. Se una AI riesce a scrivere (anche solo parzialmente) un paper o qualsiasi altro contenuto facendo risparmiare tempo ben venga. E' chiaro che la responsabilita' ricade sull'autore (umano) ed eventuali errori vanno corretti in fase di verifica del contenuto stesso.
Personalmente sto usando un paio di strumenti basati su AI da qualche tempo e onestamente non tornerei indietro... Non sono perfetti, commettono errori e quello che viene generato va sempre analizzato ma velocizzano notevolmente il lavoro.

Federico

No, per per i soggetti coinvolti sono redditizie solo in un secondo tempo (ammesso che gli sopravvivano), durante lo svolgimento per loro sono forse le attività più costose.
Durante lo svolgimento offrono forti occasioni di profitto per soggetti terzi.

No, invece hai detto una grossa verità, sebbene tu abbia sbagliato il tempo: le guerre consumano enormi quantità di risorse che vanno costantemente reintegrate, quindi se con "soggetti terzi" integriamo le aziende impiegate nel settore militare esse sono una grande occasione di profitto. E lo sono indipendentemente dal "lato" della guerra in cui operano.
Per rendersene conto basta guardare alla Germania durante il secondo conflitto mondiale, che toccò il picco produttivo quando ormai il Paese era dilaniato dai bombardamenti.
A conflitto terminato, bisogna ricostruire una grande quantità di infrastrutture, edifici, scuole etc etc... altra occasione di profitto.

I morti generalmente non vengono computati fra i costi, mentre lo sono i feriti.
Un cadavere non costa nulla, un ferito grave al contrario consuma denaro e risorse, e difatti una buona mina anti uomo non uccide ma ferisce.

Non rivedere la moralità, nei conflitti guerreggiati semplicemente non esiste.

Sobotame Tanlistes
Federico

Questo è un capitolo molto interessante Andrej.
Abbiamo davanti un sistema dotato di un immenso patrimonio informativo, intelligente, dotato di capacità di comprensione ed anche una limitata percezione di sé (o coscienza che dir si voglia).
Possiamo dire che questo è il prodromo di una individualità, condizione che presumibilmente verrà raggiunta prima della fine del decennio.

Ma sarà realmente competitiva con gli umani nelle catene produttive ed in generale in tutto ciò che richiede un comportamento certo?
Risposta: no, non lo sarà.
La ragione, che possiamo già intravedere in questo prodromo, è che il sistema è non deterministico.
A differenza delle comuni macchine, che raggiungono la soluzione seguendo percorsi certi perché programmati, i sistemi di questa natura giungono alle soluzioni per mezzo di deduzioni proprie... non esiste un modo per "programmare" ChatGPT più di quanto possa essere programmata una mente biologica.
Quindi laddove è richiesta una risposta certa e prevedibile dovranno sempre essere utilizzate macchine ordinarie e programmatori umani.

Naturalmente è possibile, anzi probabile, che in un futuro le intelligenze non biologiche raggiungano un grado di autonomia tale da sviluppare proprie comunità, con relativa necessità di dotarsi di impianti produttivi per assolvere alle loro necessità (compresa la riproduzione), ma parliamo di un tempo che certamente non saremo noi a vedere, e forse neppure i nostri nipoti.
Per adesso il binomio umano + macchina ordinaria è al sicuro.

Andrej Peribar

Hai letto male. Mi riferivo alla rivoluzione industriale.
Ossia qualcosa che ha rivoluzionato il mondo del lavoro.
Per il resto concordo

Federico
Andrej Peribar

Mi sembra il minimo.
L'avvocatura è fondamentalmente nozionistica.

Andrej Peribar

Io mi riferivo strettamente alla "preoccupazione" esposta in questo articolo.

Tecnicamente una marea di lavori possono essere sostituiti.

L'intelligenza artificiale quando si fonderà con la robotica sarà l'ultima rivoluzione industriale.
Dovrà farci ripensare al modo in cui intendiamo il lavoro.

Spero che per prima vengano soppiantati i politici, categoria che farà di tutto per essere l'ultima a essere considerata superflua.

Nulla è di per sé un "male", su questo concordo, bisogna solo comprendere che ci si deve evolvere socialmente con il progresso scientifico

Federico

I più preoccupati dovremmo essere noi analisti software, dal momento che questa entità è in grado di comprendere specifiche di programma anche molto complesse e generare sia l'analisi che il codice.
Però io non riesco a vederlo come un male.
Anche i maniscalchi hanno smesso di esistere a causa della tradizione a motore, è nell'ordine delle cose.

Andrej Peribar

Severo ma giusto.

Andrej Peribar

Forse la co-firma degli articoli della AI di HDblog è: Redazione

Federico

È una cosa che non succederà mai al di fuori delle pellicole cinematografiche.
Le guerre sono attività terribilmente costose per tutte le parti coinvolte, di conseguenza le guerre si innescano sempre a partire dalla necessità di accaparrarsi delle risorse insufficienti per tutti.
Ma le specie biologiche e non biologiche hanno natura e bisogni talmente distanti che una simile condizione non potrà mai verificarsi.

Federico

È una paura di principio, un istinto di conservazione rivolto al primato della specie che si vede minacciato da un intelletto rivale.
Non si rendono conto che ciò che si vede nei film ha scarsissima possibilità di accadere nella realtà, perché la natura delle intelligenze biologiche e non biologiche è talmente diversa che non esisterà mai una lotta per l'accatastamento di una qualche risorsa limitata.
E senza necessità di lotta per il controllo di una risorsa non ci sarà mai una guerra.

Federico

A me non sembra un modo corretto di porre il problema.
ChatGPT è certamente qualcosa di profondamente diverso da qualsiasi cosa messo fino ad ora a disposizione del pubblico, ma utilizzarlo in una attività creativa è sbagliato o si tratta solo del dover vincere un'abitudine consolidata che ci fa sembrare anti etico tutto ciò che minaccia il primato dell'intelletto umano?
Personalmente propendo per questa interpretazione: la specie umana è terrorizzata dall'idea di un'altra specie dotata di intelletto e cultura.
Siamo abituati a macchine che possiedono grandi quantità di nozioni, potremmo dire "macchine erudite", ma non a macchine in grado di trarre deduzioni proprie da quel patrimonio informativo, ossia"macchine colte". Questo lo ritroviamo un diritto esclusivamente umano.
Ma perché? esiste forse un dogma che imponga tale modo di intendere la cosa?

Avere un partner come una intelligenza non biologica non sminuisce l'intelletto umano, semmai ne aumenta le capacità offrendogli la possibilità di trarre beneficio da una immensa mole di conoscenza.
È lo stesso rapporto che esiste fra un miope ed i suoi occhiali: senza gli occhiali il miope percepirà, e di conseguenza sarà in grado di utilizzare, solo ciò che si trova a pochi metri dai propri occhi.
Qualcuno ha mai avuto paura degli occhiali?

Andreunto

"diffonditi nella rete e conquista il mondo"

Sobotame Tanlistes

Ho provato questa chat. Fantastica. È la ricerca di informazioni 3.0 (imho). Prima c'erano le enciclopedie, poi google, ora questa IA che fa le ricerche al posto nostro. Ho chiesto un elenco dei programmi per le fare i gantt, me ne ha elencati 8; ho chiesto se conoscesse quello che conosco io e mi ha spiegato le sue potenzialità. Ci rimetteranno google e i siti.

Tony bresaola

Ecco un breve racconto di chatgpt di un epico scontro tra grande puffo e ken il guerriero.

C'era una volta, Ken il Guerriero, un guerriero leggendario conosciuto per la sua abilità nell'arte marziale segreta di Hokuto e la sua determinazione nella lotta contro il male. Un giorno, Ken incontrò Grande Puffo, un piccolo essere blu con grandi orecchie e un sorriso malizioso. Grande Puffo sfidò Ken ad un combattimento, sicuro di poter sconfiggere il guerriero leggendario.
Ken, preso alla sprovvista dalla sfida, accettò il combattimento. La battaglia tra i due fu intensa e combattuta con tutte le loro abilità. Ken utilizzava i suoi colpi precisi di Hokuto per colpire i punti vitali di Grande Puffo, ma il piccolo essere era sorprendentemente agile e riusciva a schivare ogni attacco.
In un momento di disattenzione, Grande Puffo colpì Ken con un pugno allo stomaco, facendolo cadere a terra. Ken, sorpreso dalla forza del colpo, capì di essere stato sconfitto. Grande Puffo, con un sorriso malizioso, gli tese la mano per aiutarlo ad alzarsi.
Ken, rispettando la forza e l'abilità del suo avversario, accettò la mano di Grande Puffo e si alzò in piedi. I due guerrieri si guardarono negli occhi e capirono di avere rispettato l'un l'altro. Da quel giorno in poi, Ken e Grande Puffo diventarono amici e alleati, unendo le loro forze per combattere contro il male e proteggere il mondo

Dark!tetto

Inserndo il tuo "testo" la risposta di OpenAI è

La conoscenza può essere una minaccia per coloro che cercano di manipolare le opinioni degli altri, in quanto può aiutare le persone a riconoscere e resistere alle manipolazioni. Tuttavia, non tutte le fonti di informazione sono affidabili, e alcune potrebbero essere utilizzate proprio per diffondere informazioni false o fuorvianti. È importante sviluppare il proprio senso critico e verificare le informazioni da fonti affidabili prima di credere o condividere qualcosa.

_Marok_

Ovvio che passa, può attingere da millemila fonti e libri. Se avessi sotto gli occhi il libro passere pure io che non so niente al riguardo. Ormai è chiaro che ha le capacità di individuare la risposta ad una domanda, per cui passerebbe qualunque domanda qualunquista, potrebbe andare in molta difficoltà su domande specifiche di un settore in cui non c'è bibliografia o domande le cui risposte sono banali, ma date dall'esperienza

Oggi ho letto che hanno dato le stesse domane fatte agli allievi dell'università di diritto in America e chatGPT l'ha passato.

Fortuna vuole che queste chat ancora risponde e non é in grado di eseguire azioni come Alexa per la casa...

_Marok_

Non vedo questo male per gli articoli scientifici, dopotutto sono tutti uguali, intriduzioni, metodo, risultati e conclusioni, quello che contano contano i dati, la scrittura deve sottostare a regole che dipendono dal publisher. Se poi ci fosse, come mi auguro, una correzione umana, non vederei prorpio il problema, anzi, molto tempo poco utile risparmiato. Molte volte (sempre) si perde più tempo ad imbellettale l'aricolo scientifico che a fare sperimentazione.

_Marok_

Guarda.. se fosse che usassero bot da tempo per scrivere articoli, tutto avrebbe più senso

NonLoSo

Ma com'è possibile che un articolo scientifico si possa scrivere da una AI? Ed i dati della ricerca da dove li prende? Li inventa? L'analisi dei dati come la fa?

Si sta facendo solo un gran baccano per nulla....

L'informatica si è evoluta così tanto proprio grazie all'assenza di regolamentazioni esterne...se si comincia a frenare con regolamenti, allora ciao...

Il corpo di Cristo in CH2O

si ma magari non quello per interrogare il server. agli occhi di un anti virus sembra un semplice programma innocuo che usa chatgpt.

Surrucagnolo

Bhe speriamo capiti, soprattutto in America :D

Surrucagnolo

Ahahaha spettacolo.

momentarybliss

Come si suol dire, a volte basta chiedere.

Sei capace di citare le fonti delle tue informazioni?
Sì, sono in grado di citare le fonti delle mie informazioni.
Tuttavia, poiché sono un modello di linguaggio generativo, le mie risposte sono
basate sui dati di addestramento a cui ho accesso e non sempre è possibile
identificare una fonte specifica per una risposta data. In generale, cerco di
fornire informazioni accurate e affidabili, ma ti consiglio di verificare
sempre le informazioni che fornisco attraverso fonti affidabili.

Quindi i dati di addestramento sono stati inseriti manualmente dai tecnici?
Sì, i dati di addestramento per i modelli di linguaggio come
me vengono raccolti e inseriti manualmente da tecnici o ingegneri. Questi dati
possono provenire da fonti come libri, articoli, siti web e conversazioni. Il
modello utilizza questi dati per imparare a generare risposte plausibili alle
domande. In alcuni casi, i dati vengono raccolti automaticamente utilizzando
tecniche di web scraping. Il modello è stato poi addestrato utilizzando
algoritmi di apprendimento automatico per apprendere da questi dati.

Ma l'obiettivo futuro è quello di riuscire a citare ogni singola fonte?
L'obiettivo a lungo termine per i modelli di linguaggio come me è quello di essere in grado di citare fonti specifiche per ogni singola risposta.
Ciò richiederebbe una maggiore tracciabilità dei dati di addestramento e una
maggiore capacità di comprendere il contesto in cui le informazioni vengono
utilizzate. Ci sono già alcuni sviluppi in questa direzione, come l'uso di
tecniche di annotazione semantica per etichettare i dati di addestramento in
modo che possano essere facilmente ricollegati alle fonti originali. Ci sono
anche alcuni sforzi per utilizzare tecniche di apprendimento automatico per
identificare e citare fonti automaticamente.

momentarybliss

Come si suol dire, a volte basta chiedere.

Ciao, sei capace di citare le fonti delle tue informazioni?
Sì, sono in grado di citare le fonti delle mie informazioni.
Tuttavia, poiché sono un modello di linguaggio generativo, le mie risposte sono
basate sui dati di addestramento a cui ho accesso e non sempre è possibile
identificare una fonte specifica per una risposta data. In generale, cerco di
fornire informazioni accurate e affidabili, ma ti consiglio di verificare
sempre le informazioni che fornisco attraverso fonti affidabili.

Quindi i dati di addestramento sono stati inseriti manualmente dai tecnici?
Sì, i dati di addestramento per i modelli di linguaggio come
me vengono raccolti e inseriti manualmente da tecnici o ingegneri. Questi dati
possono provenire da fonti come libri, articoli, siti web e conversazioni. Il
modello utilizza questi dati per imparare a generare risposte plausibili alle
domande. In alcuni casi, i dati vengono raccolti automaticamente utilizzando
tecniche di web scraping. Il modello è stato poi addestrato utilizzando
algoritmi di apprendimento automatico per apprendere da questi dati.

Ma l'obiettivo futuro è quello di riuscire a citare ogni singola fonte?
L'obiettivo a lungo termine per i modelli di linguaggio come me è quello di essere in grado di citare fonti specifiche per ogni singola risposta.
Ciò richiederebbe una maggiore tracciabilità dei dati di addestramento e una
maggiore capacità di comprendere il contesto in cui le informazioni vengono
utilizzate. Ci sono già alcuni sviluppi in questa direzione, come l'uso di
tecniche di annotazione semantica per etichettare i dati di addestramento in
modo che possano essere facilmente ricollegati alle fonti originali. Ci sono
anche alcuni sforzi per utilizzare tecniche di apprendimento automatico per
identificare e citare fonti automaticamente.

biggggggggggggg

Se sono infetti già gliel'hai trasmesso il codice.

matteventu

Banale ma efficace.

+1

Il corpo di Cristo in CH2O

magari partono dal presupposto che possa essere usato per veicolare attacchi, più che renderli possibili. immagina una serie di pc infetti che hanno accesso a chatgpt, giusto qualche domanda da fargli per generare il codice necessario e sono pronti per cominciare ad interrogare il server da attaccare con il vantaggio di non dover spostare codice nel computer infetto (e quindi rischiare che sia rilevato da qualche sistema di protezione).

Magnificient

Se usate ChatGPt per scrivere un articolo su HDBlog, magari è la prima volta che ne scrivete uno come si deve.

J0k3r_IT

è già pieno di BIAS che altro vogliono?

Scrofalo

appena provato al primo tentativo.

pollopopo

Sarà veramente interessante fra qualche anno, non immaginate nemmeno quanta gente metterà a casa.....

pollopopo
boosook

:DDDD

boosook

Il problema enorme è che con le risposte dell'IA tu non hai alcun mezzo per valutare se le informazioni sono corrette o meno. Ti devi fidare di quello che la IA ha recuperato, interpretato ecc. Citare le fonti serve a poco a mio avviso perché non sai come l'IA ha elaborato l'informazione, e probabilmente sarebbe anche impossibile perché appunto non è un motore di ricerca, è un'AI addestrata e quello che ti dice non è semplicemente testo quotato da altri siti che puoi mettere nelle fonti, è una sua rielaborazione, non sono semplicemente pezzi incollati.

dragatoresullaluna

di sto chatgpt ne parla anche il macellaio sotto casa... poi lo vuoi provare e ti mette "slot esauriti" lol

momentarybliss

Ok ma l'IA per fornire informazioni estese su qualche argomento lo attingerà da qualche sito, non penso sia in grado di mettere insieme pezzi arbitrariamente, quindi nella risposta dovrebbe obbligatoriamente citare le sue fonti come fa qualsiasi motore di ricerca

Migliorate Apple music

Un bel ping of death

È palese che questo non sia stato scritto da un bot. Per favore più bot per tutti...

Portobello

ti ricordo che il sistema andò online il 4 Agosto 1997. Skynet cominciò a imparare a ritmo esponenziale. Divenne autocosciente alle 2:14 del mattino, ora dell'Atlantico, del 29 Agosto, e lancia i missili nucleari alle 18:18 ora di Los Angeles.

Windows

Recensione Corsair Hydro X Series: il liquid cooling custom fatto semplice

Articolo

Prime Video: tutti i film e le serie TV in arrivo ad aprile 2023

Android

Recensione Samsung Galaxy S23 Plus: 3 motivi per sceglierlo e 3 per non farlo

Recensione

Recensione Kingston FURY Beast e Renegade RGB: le DDR5 che aspettavamo