
Sicurezza 06 Giu
09 Giugno 2023 24
Una delle sfide del futuro sarà riconoscere e distinguere i contenuti generati dall'intelligenza artificiale da quelli creati dall'uomo, e non sarà cosa semplice. Abbiamo già visto in ambito fotografico che ci sono già stati i primi incidenti, con fotografie fake che sono state in grado di vincere in contest internazionali, ma per i testi la questione potrebbe diventare ancora più complessa con il passare del tempo e con il miglioramento degli LLM.
Tuttavia qualcosa si muove e un nuovo strumento sembra essere in grado di identificare i paper scientifici scritti da ChatGPT nel 99% dei casi.
Perché è importante che nascono soluzioni di questo genere? Il plagio basato sull'IA sta diventando un fenomeno sempre più fastidioso e pericoloso, soprattutto per le pubblicazioni in ambito scientifico. Molti ricercatori stanno cercando di sviluppare una soluzione pratica contro questo tipo di problematica e un nuovo approccio sembra funzionare particolarmente bene per alcune tipologie specifiche di paper scientifici. ChatGPT è estremamente bravo a creare contenuti creativi simili a quelli degli esseri umani, anche se gli esperti lo considerano piuttosto mediocre e ridondante come scrittore. Tuttavia, quando si tratta di scrittura scientifica, i chatbot possono trasformarsi da semplici fastidi o strumenti per imbrogliare a scuola, fino a diventare vere e proprie minacce per la scienza.
Una ricerca pubblicata da un gruppo di ricercatori dell'Università del Kansas propone una soluzione potenziale per il problema del plagio basato sull'IA, vantando una notevole capacità di distinguere la scrittura scientifica realizzata da esseri umani dall'output di ChatGPT, con una precisione stimata addirittura superiore al 99%.
Il risultato è stato ottenuto, guarda caso, grazie ad algoritmi di intelligenza artificiale e tramite un modello linguistico specificamente addestrato. Gli scienziati hanno selezionato 64 articoli di prospettiva, su argomenti che spaziano dalla biologia alla fisica, e poi hanno chiesto a ChatGPT di generare nuovi paragrafi sulla stessa ricerca per unire insieme 128 articoli falsi. L'IA ha prodotto 1.276 paragrafi, che sono stati utilizzati per addestrare il modello linguistico scelto dai ricercatori per cercare di classificare il testo generato dall'IA.
Sono stati compilati altri due set di dati, uno contenente 30 articoli di prospettiva reali e l'altro con 60 paper generati da ChatGPT, per testare il nuovo algoritmo addestrato. Si scopre così che l'algoritmo ha superato i test dei ricercatori con ottimi risultati: il classificatore dell'IA è stato in grado di rilevare gli articoli del ChatGPT il 100% delle volte, mentre l'accuratezza nella rilevazione dei singoli paragrafi falsi è scesa al 92%.
Gli scienziati sostengono che i chatbot alterano i contenuti testuali utilizzando uno stile di scrittura unico, di conseguenza la loro impronta può essere identificata in modo piuttosto efficace. Nel caso dei paper scientifici, gli esseri umani tendono a utilizzare un vocabolario più ricco, con paragrafi più lunghi e spaziando maggiormente tra i termini scelti e la punteggiatura più. Inoltre, ChatGPT non è rinomato per la sua precisione e tende ad evitare di fornire cifre specifiche o citare nomi di altri scienziati.
I ricercatori del Kansas hanno definito il loro approccio contro il plagio basato sull'IA come uno studio "proof-of-concept", anche se ha dimostrato di essere molto efficace in questi casi specifici. Saranno necessarie ulteriori ricerche per stabilire se lo stesso approccio possa essere applicato ad altri tipi di paper scientifici o a output testuali generati dall'IA in generale, ma la direzione sembra quella giusta.
Recensione iPhone 15 Pro Max, si conferma al TOP senza stravolgere
Prime Video: tutti i film e le serie TV in arrivo a ottobre 2023
Recensione Sony Xperia 5 V: funziona alla grande, ma è fuori tempo massimo? | VIDEO
Samsung Galaxy S24, primi render svelano il design: avrà bordi piatti e squadrati
Commenti
"commerciabile" è una responsabilità di chi lo ha commerciato (che di nuovo non c'entra niente con l'aspetto scientifico). io sono uno di quelli che preferisce avere poco, se utile, al posto che niente.
Commerciale si ma commerciabile? Ripeto la domanda : ad oggi a cosa serve se non restituisce riscontri validi/validati/attendibili?
Non mi interessa a cosa potrebbe servire tra 1 o 10 anni ipoteticamente, chiedo a cosa serve ora .
Lo chiedo da ignorante , sperando ci sia una rispsota che non sia un trattato di dietrologia.
chat gpt è da vivere come un esperimento che è reso sotto forma di un sistema commerciale perchè è un esperimento abbastanza buono da poter essere utile anche all'utente comune. se si vuole analizzare con un processo scientifico occorre discuterne gli interni, non gridare allo scandalo perchè la "palla magica numero 8" non ha risposto correttamente.
Va bene maestro, puoi anche ridpondere oltre che giudicare?
a parte che "fake news" non è un argomento scientifico.
e poi mi pare il solito commento per la serie "ti indico la luna e guardi il dito".
in tutto questo , se le risposte non sono affidabili tutto il carrozzone a cosa serve?
e' un generatore di fake news?
Tra 10 anni non servira' piu' nessun tool.
Il 100% sara' scritto da AI
Ci vuole un tool per capire se il tool precedente è stato preciso. Infine ci vuole un omino in una stanza buia a verificare il tutto.
Se sai come funzionano, non ti sorprendi. È quasi più sorprendente che ogni tanto ci azzecchi.
va bene, ma anche messa su questo piano, io non capisco quale risultato scientifico possa avere quello di "testare l'affidabilità". potrebbe averne dire "data questa tecnica di training utilizzata si evince come le informazioni fornite all'atto della richiesta di articoli scientifici sono erronee per questo quello e quest'altro motivo, viene proposta una soluzione tal dei tali al fine di mostrare come correggere il problema". questo tipo di documento te lo accettano alla sottomissione, quello che dice "proviamo a vedere se risponde bene? eh no! non risponde bene!!" ti ridono dietro o te lo accettano in qualche sotto-rivista di articoli da due soldi.
il fatto che la correttezza della risposta sia una scommessa, è cosa nota, il problema è quanto peso si è dato alla correttezza dei contenuti scientifici e delle fonti, cosa che posso immaginare non sia stata fatta. per tanto stai criticando un lavoro il cui fine è diverso dall'oggetto del test.
Sarò più esplicito e farò una ricostruzione più dettagliata, la mia intenzione era quella di testare l’affidabilità di ChatGPT. ChatGPT ha risposto in modo parzialmente corretto(a essere larghi, ovvero se fossi tu in sede di esame a darmi tale risposta io la giudicherei incorretta) e inventato non solo il nome dei papers, ma ha anche sbagliato, in alcuni casi, i nomi dei presunti autori(i cognomi erano corretti) degli articoli inesistenti, e te lo dico perché alcuni dei presunti autori li conosco personalmente. Ora, anche assecondando la fantasia di ChatGPT riguardo l’invenzione delle fonti, il problema è che ha cappellato anche la risposta. Tutto ciò lo rende fallace e totalmente inaffidabile (almeno in versione 3.5). Generalizzando, quanto accaduto è indipendente da chi elargisce l’informazione erronea, sia esso uomo o macchina, ovvero se non sei in grado di dimostrare quanto detto/scritto( e non stiamo parlando di opinioni) e/o dirmi(citarmi) la fonte originaria da cui attingi, hai detto/scritto una fesseria. E inventare fonti a supporto della informazione fornita solo perché è il modo in cui l’essere umano generalmente le verifica è grave e va corretto.
non ho capito dove vuoi arrrivare. per come è fatto GPT non penso proprio abbiano collegato la richiesta delle fonti con la capacità di citare i paper specifici, i paper concorrono a formare la conoscenza circa una domanda specifica, ma i nomi dei paper usati per una data risposta evidentemente no, sono citati a casaccio come possibile risposta alla domanda "quali sono le fonti?" dove la risposta segue l'idea che la gente di solito cita paper, non è collegata ai paper di un dato argomento. quindi non capisco dove vuoi andare a parare.
Uauuu sei quello sveglio in famiglia o condividete tutti lo stesso acume?
https://media0.giphy.com/me...
Se il "paper scientifico" è di origine statunitense, basta vedere che unità di misura usa: se hanno il SI è palesemente fake. Altro che AI...bastano i nostri umili occhietti.
mandagli un feedback, magari non ci hanno pensato.
Inventare il nome di pubblicazioni scientifiche giusto perché avevo chiesto delle fonti per verificare quanto scritto lo rende poco credibile. Bastava scrivere che non poteva soddisfare quanto richiesto poiché bla bla bla…
In teoria penso che la cosa migliore sarebbe mantenere su server tutti i contenuti generati dall'IA, almeno di una certa complessità, per un futuro controllo. Ma ciò implicherebbe immagino costi elevatissimi che verrebbero scaricati sull'utente
non vedo come avrebbe dovuto linkarti quelli giusti, secondo quale parametro?
Se pensiamo che un avvocato ha fatto lo stesso esperimento, ma non per gioco, ottenendo gli stessi risultati...
per chatGPT vale la citazione "la capacità di parlare non da di te un essere intelligente".
L'uso più consono e fargli riscrivere testi in maniera da velocizzare e rendere più piacevole la formulazione di articoli o paragrafi. Non farglieli fare di sana pianta, visto che sia la 3.5 che la 4 inventano spesso e volentieri
SemiOT: 2 giorni fa feci una domanda piuttosto specifica trattante tematiche scientifiche( di cui conoscevo la risposta) a ChatGpT 3.5 e gli chiesi di linkarmi anche le fonti. Ebbene, è riuscito nell’impresa di fare 2 c0glion4te, i.e., mi ha dato una risposta parzialmente veritiera e ha inventato di sana pianta i nomi dei papers da cui avrebbe attinto le presunte informazioni. Non ho avuto tempo di ripetere l’esperimento col 4.0, spero che quest’ultimo dia più affidabile.
Tra un pò riscriverà anche il cervello della gente.
Spero per il meglio, perchè ce n'è tanto bisogno.