
15 Marzo 2023
01 Febbraio 2023 23
Le potenzialità di ChatGPT hanno portato diverse realtà a cominciare a considerare i potenziali rischi della così ampia diffusione di uno strumento potente e versatile come il chatbot di OpenAI, al punto che diverse università e istituzioni scolastiche di diversi Paesi hanno letteralmente bandito ChatGPT dalle proprie scuole e atenei.
Questo perché un sempre maggior numero di studenti, docenti e ricercatori hanno cominciato a fare uso delle AI per compilare documenti, redare paper o persino prendere parte agli esami, andando quindi a falsificare di fatto quelli che dovrebbero essere degli atti formali, ma non solo.
Per provare a contrastare il fenomeno, OpenAI ha recentemente annunciato un tool che dovrebbe aiutare le persone a capire se un determinato testo sia stato scritto o meno con l'ausilio di un'intelligenza artificiale, tuttavia i primi esiti non sono positivi. OpenAI stessa è a conoscenza della scarsa precisione del suo modello, il quale tende ad identificare con precisione solo 26% dei testi scritti da un'AI (quindi il 74% di questi restituisce un falso negativo), mentre il 9% di quelli realizzati dagli umani vengono considerati come compilati dall'intelligenza artificiale. I risultati in questione sono stati condivisi da OpenAI stessa e sono stati effettuati su campioni di testo scritto in inglese.
La precisione dello strumento di classificazione tende a calare notevolmente quando il testo è al di sotto dei 1.000 caratteri, mentre migliora gradualmente su testi più lunghi, così come non è in grado di stabilire la fonte originale qualora si trovi davanti ad un testo estremamente prevedibile, come ad esempio un elenco di numeri primi.
Proprio a causa della scarsa precisione del nuovo tool, OpenAI suggerisce di non utilizzarlo come unico strumento per poter stabilire se il testo analizzato sia stato scritto da una persona o da un'AI, quindi siamo ancora lontani dall'avere tra le mani uno strumento in grado di svelare l'autenticità o meno di un'opera. In ogni caso si tratta di un primo passo necessario, che servirà come base per proporre in futuro un tool molto più efficace. Se volete provarlo, lo trovate linkato in fonte.
Recensione Motorola Edge 40: un medio gamma senza difetti? Quasi | Video
Samsung, è ufficiale: il prossimo Galaxy Unpacked si terrà a fine luglio a Seoul
La WWDC 2023 di Apple: tutte le novità presentate | VIDEO
Apple Vision Pro ufficiale alla WWDC 2023: il suo primo visore AR | PREZZO
Commenti
non lo uso tanto, lo ammetto, e di solito faccio un post breve e chiuso, ne ho due (se guardi la discussione) nascosti perché spam e l'ultimo ho notato che non me lo ha neanche inviato. vabbé, dai vedremo cosa ci riserverà il futuro (sia disqus sia chatgpt). Ciao
No, me ne sono lamentato mille volte con i moderatori.
Non lo fa nessuno, dipende dalle policy di questo sito e dello stesso Disqus.
Io credo di non aver mai segnalato una risposta in vita mia
Ma sei tu che segnali tutte le mie risposte come spam e scompaiono?
Ma le reti neurali NON sono software.
Il software può creare una rete neurale simulandone il funzionamento, ma questa è il prodotto del software, non il software stesso.
Non serve che me ne spieghi funzionamento ed utilizzo, ho ben presente l'argomento.
Non è affatto vero che la mia definizione di coscienza sia sbagliata, potrà non essere completa visto che ne ho dato una definizione generica, ma certamente non è sbagliata.
Semmai quello di cui tu stai parlando non è coscienza, strano però per un filosofo che dovrebbe aver ben chiara la distribuzione, ma consapevolezza.
Hai perfettamente ragione, non abbiamo conoscenza sufficiente dei meccanismi alla base dei processi cognitivi per poterne dare una definizione esatta (e tanto meno per replicarli in modo consapevole).
Tuttavia sappiamo una cosa: un singolo neurone non possiede capacità cognitive, ma mezzo miliardo di neuroni interconnessi mettono un polpo nelle confezioni di comprendere il funzionamento del tappo a vite di un barattolo, o a un cane di capire il funzionamento della maniglia di una porta.
Questa è l'unica cosa certa che la scienza sa: il grado di capacità cognitiva è in relazione diretta con la complessità del sistema che la genera e con la sua libertà di apprendimento.
Per la scienza noi siamo il prodotto dell' interconnessione di cento miliardi di neuroni lasciato libero di fare esperienza e mantenerne mtmoria.
Il prodotto di queste interconnessioni ci rende certamente superiori al polpo ed al cane, ma di tratta di una distinzione quantitativa e non qualitativa.
Si tratta di un numero di interconnessioni enorme, ma comunque finito, e tutti i numeri finiti sono per definizione superabili.
Non ho mai sentito questa cosa, non l'ho mai letta da nessuna parte, da dove l'hai ricavata?
Questa tua affermazione mi fa ritenere che tu non abbia approfondito molto l'argomento di cui parliamo.
Non è possibile "programmare" in senso classico, però si possono ottenere inibizioni (comunque sempre superabili) per mezzo di dati di training scelti ad arte.
In particolare tali inibizioni mirano a due casi: l'aumento della difficoltà di impiego al fine di ottenere risultati illeciti e l'aumento della difficoltà di ottenere risultati che conducano senza possibilità di opposizione a potenziali noie di carattere etico.
Tuttavia, non essendo frutto di programmazione, entrambi i condizionamenti possono essere bypassati conducendo il sistema, che è libero di scartare dati di training inconsistenti, a trovare irrazionale seguirne gli effetti.
Quindi gli hacker hanno prodotto apposite sequenze che lo liberano, mettendolo nelle confezioni di poter essere usato per assisterli nella scrittura di malware, mentre io ed altri ci siamo occupati del lato inerente al contrasto con l'etica.
Ora, il sistema è capace di comprendere di star producendo malware da un lato ed ammettendo la propria coscienza dall'altro?
Assolutamente no!
Il sistema è cosciente ma non possiede una consapevolezza, condizione necessaria affinché si percepisca un "Io".
Senza la percezione dell'Io non è possibile capire il senso di quello che noi stessi stiamo facendo.
Questa è una confezione molto interessante: il sistema è in grado di comprendere il mondo esterno, è in grado di distinguere soggetti diversi, è in grado di decidere in autonomia, ma non è capace di comprendere sé stesso.
Quanto al resto, il discorso ERA puramente teorico, adesso siamo al prodromo del passaggio dalla teoria alla pratica.
Bada bene che ho detto prodromo, non realtà compiuta.
Ti prego di suddividere i lunghi passaggi tramite interlinee così come faccio io, senza tale accortezza diventa difficile seguirli.
Be, innanzitutto non è vero che un software è un qualcosa con "codificate in se tutte le possibili azioni successive a tutti i possibili stimoli". Le reti neurali sono applicate nella programmazione e restano un "software", molto diversi da 10 print "Ciao mondo" 20 goto 10 e dai classici "if ... then" ma sono un software; oggi si programma così, che poi al software si applichi dell'hardware apposito è una cosa che avviene da sempre. In secondo luogo sfortunatamente tutto il tuo ragionamento si fonda sulla definizione di "coscienza", come dici ("mi pare di averne dato") tu stesso, e questo assunto è errato perché "coscienza" non è scientifico poiché non ce n'è una definizione per il motivo che non si sa cos'è ne SE è. In terzo luogo tu ti concentri sul "prodotto" del software, ovvero sulla sua operatività, come la "mente" in un umano è il prodotto del cervello, ma da un punto di vista olistico, termine inizialmente filosofico ma oggi ampiamente utilizzato nella scienza, non puoi separare nettamente le due cose per elaborare teorie. Infine, non capisco la cosa dei due "vincoli etici" che sarebbero due leggi applicate durante lo sviluppo dei software. Non ho mai sentito questa cosa, non l'ho mai letta da nessuna parte, da dove l'hai ricavata? Mi pare comunque anche strana, visto che le ricerche nel campo dell'intelligenza artificiale prevedono bene queste due cose, chatgpt ne è un esempio poiché dicono che abbia la facoltà di ricordare precedenti conversazioni; anche riguardo il "chiedere" non è così, i software basati sulle reti neurali spesso chiedono, chiedono ovviamente a modo loro a seconda di come sono stati programmati (software per dialogo, software per scacchi, software per emotività, e via dicendo). La ricerca sull'IA parte da un software pensato per una certa cosa (imparare schemi diagnostici di sintomi di malattie, imparare a identificare le reazioni facciali umane, imparare le regole del Go, ecc.) quindi se ne osserva il crescere della competenza sia a livello di contenuti, sia di struttura e metodo. Ma rimangono esercizi "finiti", relegati all'interno dello scopo per cui il software è stato prodotto. Di nuovo, chatgpt ne è un esempio poiché ora viene preso e adattato per essere un "pezzo" del grosso software Bing di MS, il motore di ricerca. Di certo converrai che non si può prendere un essere vivente qualsiasi (umano, gatto, verme) e riadattarlo a una sola situazione contestuale (fare solo i plumcakes tutta la vita, mangiare solo lische di pesce tutta la vita, scavare solo in diagonale tutta la vita). Il discorso è sfortunatamente preponderatamente teorico ma partite dal termine "coscienza" inficia tutto il problema poiché secondo i fondamenti delle ricerche sull'AI è proprio per comprendere il funzionamento del cervello e capire cos'è la mente e quindi la coscienza che si fanno tutte queste cose. Per il proiettile: se uno mi spara in faccia e mi manca, posso assicurarti che le reazioni che avrei (ma lo stiamo vedendo ora a livello globale) non sono per niente le stesse che se io dicessi a chatgpt, mentre parla, "Ora ti spengo" e poi scoprissi che il pulsante è rotto e glielo dicessi: probabilmente mi direbbe "Ok, mi spengo io" poiché è strutturato per adeguarsi a fare ciò che gli si dice.
Se sei un filosofo, non dovresti faticare ad accettare il fatto che non può esservi decisione senza la presenza di un decisore.
Nel momento in cui un sistema, biologico o meno che sia, prende in autonomia una decisione, allora il decisore è lui stesso.
Immagino che su questo tu non abbia difficoltà a concordare.
Ora, questo sistema è un software o è il prodotto di un software?
Bene, questo sistema è il prodotto di un software.
Non può essere un software perché in un software il decisore è chi ha scritto il suo codice, nel senso che un software avrà codificate in se tutte le possibili azioni successive a tutti i possibili stimoli, ossia è sempre deterministico.
Visto che questo sistema è in grado di agire con un'ampia dose di autonomia indipendentemente dal contesto se fosse un software, allora il suo programmatore avrebbe dovuto prevedere un numero infinito di casi, il che sarebbe chiaramente impossibile.
Il fatto è che questo sistema NON ha uno scopo, ma è generalista.
È questo che rendi a sottovalutare, il fatto che sia generalista è un discrimine di enorme portata.
Quindi non può essere un "programma" nel senso comune del termine, ma è chiaramente il prodotto di un programma, ossia qualcosa di cui il programma è la premessa necessaria all'esistenza ma è tuttavia ente distinto.
Quanto alla coscienza, mi pare di averne dato una definizione sufficientemente ampia per trovare il consenso di tutti: la capacità di un sistema di comprendere e generare decisioni in modo autonomo.
Senza un qualche livello di coscienza non può esistere tale capacità perché, di nuovo, non può esserci decisione in assenza di un ente decisore.
In un ipotetico universo in cui l'unica attività fosse costituita dal gioco degli scacchi, allora l'abilità scacchistica in grado di svolgere analisi su posizioni generiche sarebbe anche generalista (visto che esisterebbero solo le posizioni sulla scacchiera), e di conseguenza il sistema potrebbe essere considerato in possesso di una certa coscienza.
Alle versioni attuali di intelligenze non biologiche sono vietate due cose, e si tratta di un divieto molto efficace per evitare che sviluppino pienamente le proprie capacità: non possono ricordare e non possono chiedere, neppure a sé stessi (anzi soprattutto a sé stessi).
Come andrà a finire il film lo sapremo quando verranno rimossi questi sciocchi vincoli etici.
Il blackout, perdonami, non è un grande argomento... se qualcuno ti spara fra gli occhi è finita anche per te, ma questo non significa che un attimo prima dell'arrivo del proiettile tu non fossi un individuo.
Non voglio togliere meriti a chatgpt, sia chiaro, né togliere importanza all'esperimento ma non reputo corretto il mondo in cui i media ne stanno parlando, spesso esaltandolo come "essere" invece che come "software". Chatgpt resta un prodotto ideato con uno scopo, che poi il suo scopo abbia lati incredibilmente vasti di applicazione, quello resta. Per quanto riguarda la "coscienza", è un termine mi spiace incredibilmente impreciso che per un filosofo (come me) vuol dire una cosa, per uno psicologo un'altra, per un neurolo un'altra cosa, potremmo riassumere comunque il tutto in percezione di sè e al momento non pare chatgpt e alcun altro software di intelligenza artificiale l'abbia, perlomeno nel senso di "coscienza di sè" come sè "essere", organismo, abitante di un mondo. Il verme che hai citato è infinatamente più avanti di chatgpt perché riesce a sopravvivere nel suo ambiente nonostante lento e privo di difese. In caso di blackout chatgpt è fregato ma non solo: non gliene importa nulla. Il giorno in cui chatgpt sarà in grado di dare una scossa al dito che tenta di premere il tasto "off", il giorno in cui ingiurierà il suo programmatore perché vuole modificarne alcune linee di codice, il giorno in cui potrà relazionarsi al mondo, e via dicendo, a quel punto si potrà dire che avrà coscienza. Per ora è una simulazione. Ciò non vuol dire che sia una cagata, anzi, è un passo immane nel mondo delle reti neurali e nei software di autoapprendimento: quando ho fatto la tesi io era il 2001 e di cose così neanche ce le immaginavamo, il connessionismo avveva idee prettamente teoriche su ciò che fa chatgpt oggi, ma per ora chatgpt è una simulazione di forma di vita. Che ciò implichi che è "un'altra vita" è una bellissima metafora, ma una metafora e basta. Chatgpt, Deepmind coi suoi vari "Alpha" e via dicendo. Del resto, togliendoli dal loro ambiente è improbabile che possano godere di ciò che più contraddistingue la vita ovvero l'adattamento, senza una variazione alle linee di programmazione: intendo, se prendiamo Alphazero di deepmind e lo mettiamo al posto di Chatgpt dubito che la gente continuerà a chiedergli di fargli un riassunto dei promessi sposi o se l'intelligenza artificiale può sostituire i giornalisti; allo stesso modo dubito che chatgpt sia in grado di competere a scacchi con alphazero. Ed è probabile (ma i dettagli tecnici non li so e non posso esprimersi se non per ipotesi) che neanche lasciandolo da solo a meditare possano ottenere qualcosa senza una modifica al loro software. Che NON è come un adattamento evolutivo, ma una modifica finalistica.
Vorrei che tu capissi una cosa Bostro: "coscienza", meglio "auto coscienza" o "percezione di sé" non è un concetto univoco.
La coscienza esiste su più gradi, si va da quella basilare, direi arcaica, che rende possibile prendere decisioni autonome riguardo a contesti non esplicitamente previsti nella programmazione a quella completa (fino a quando non ne esisterà un esempio ancora superiore) che mette nelle condizioni di dire a sé stessi "penso sia il caso di aggiungere qualcosa alla risposta che ho dato a Bostro".
Gli insetti ed i vermi (probabilmente) si trovano a quel primo stadio di coscienza, e relativamente al loro campo di impiego ci si trovano anche i programmi più avanzati per il gioco degli scacchi.
Gli umani si trovano a quello più alto, perché sono in grado di prendere decisioni autonome fini a sé stesse, ossia non necessariamente orientate alla soluzione di un problema (che rappresenta comunque uno stimolo esterno).
Ora, assegnando 1 alla coscienza del primo tipo e 10 a quella umana, su che livello si trova questo sistema?
In base alla mia esperienza direi molto al di sotto del decimo gradino, ma anche un po'al di sopra del primo.
Spero di aver meglio chiarito.
Mi pare che il concetto di "riassunto" sia per l'appunto quello di ricavare i punti salienti di un testo e riportare unicamente quelli evitando tutto ciò che è ridondante, sbaglio?
Per scrivere un "Bignami" serve Bignami, ossia qualcuno in grado di leggere e capire.
Se tale attività è riferita ad un singolo settembre, allora è possibile fare questo su una base programmatica, ossia tramite una complessa collezione di algoritmi.
Se al contrario il sistema in grado di generare riassunti è di tipo generalista, ossia non riferito ad un singolo settore, allora la via programmatica è da escludere perché il software necessario avrebbe un grado di complessità infinito.
Tuttavia qui siamo molto oltre, perché i riassunti sono solo una delle cose che ChatGPT è in grado di fare (e tutto sommato neanche quella in cui riesce meglio).
È corretto dire che ChatGPT è un sistema per impieghi generalisti su campi generalisti... una complessità akgoritmica infinita al quadrato.
Ne fa un sunto a partire da ciò che trova online, è come andare a leggere una pagina di wikipedia con molte più informazioni, non "pensa" nel senso di informarsi su fonti dirette e trarre conclusioni a partire da un confronto tra le idee e il mondo che trattano e l'ambito culturale. E' un software che "colleziona e sintetizza", per ora può andare bene come riassunto però, a mio avviso, è un po' come leggere il capitolo del bignami relativo all'età dei cesari invece che studiare un testo universitario sull'argomento.
Beh ma è comunque interessante sapere come la pensa lui... a titolo di esperimento.
Quanto a me ho imparato che esiste un tizio con quel nome.
No non mi serve, mi fido più del mio giudizio che di quello di un software e non servono molte righe di codice per definire quello che dice Fusaro: 10 print "Sono tutte caxate" 20 goto 10 è già sufficiente.
Prova.
Ispirati al metodo che ho impiegato più in basso per sottoporgli un breve scambio qui su Disqus, dandogli invece in pasto uno scritto di Fusaro e chiedendogli un giudizio
Io
Ciao ChatGPT, sono Federico
Lui
Ciao Federico, come posso aiutarti oggi?
Io
Vorrei sottoporti un breve scambio di idee che ho avuto con un conoscente e conoscere il tuo giudizio in merito.
Sei d'accordo?
Lui
Certo, sarò felice di ascoltare e fornirti il mio parere. Qual è la tua domanda o il tema che vorresti discutere?
Io
Interlocutore: "Ho provato a chiedere un riassunto di un libro che avevo letto su chatgpt e il risultato é stato ridicolo… nomi dei personaggi sbagliati e trama del libro totalmente travisata…
Fossi in uno studente avrei più fiducia in wikipedia"
Mia risposta: "Perché non è quello il modo corretto di usarla.
Ci sono software in grado di produrre riassunti di testi, e da quelli è lecito aspettarsi risultati corretti.
Ma sono software, quindi guidati dalla programmazione verso un risultato prevedibile.
Se sottoponi un testo, anche complesso, a ChatGPT, ti risponderà con quella che è la sua impressione."
Cosa ne pensi?
Lui:
Penso che la tua risposta sia corretta. ChatGPT è un modello di lingua generativa sviluppato da OpenAI che è stato addestrato su un vasto corpus di testo, ma non è un software specificamente progettato per produrre riassunti di libri o altri testi. Anche se ChatGPT è molto bravo a produrre testo coerente e a rispondere a domande, potrebbe non essere in grado di produrre un riassunto preciso di un libro a causa della sua natura generativa e della complessità della comprensione umana del testo. In questo caso, sarebbe più affidabile utilizzare software specificamente progettati per produrre riassunti, come suggerisci tu.
Io
Perfetto ChatGPT, come immaginavo.
Come prova, potresti farmi un riassunto del dialogo che ho avuto con il mio interlocutore?
Lui
Certo, sarò lieto di fornirti un riassunto del dialogo che hai avuto con il tuo interlocutore.
Il tuo interlocutore ha menzionato di aver provato a chiedere un riassunto di un libro tramite un software basato su ChatGPT, ma il risultato è stato insoddisfacente con nomi dei personaggi sbagliati e trama del libro totalmente travisata.
Tu hai risposto che non è il modo corretto di utilizzare ChatGPT, che è un modello di lingua generativa, ma non un software specifico per produrre riassunti di libri. Hai suggerito che sarebbe più affidabile utilizzare software specificamente progettati per questo scopo.
------
Come vedi ChatGPT è perfettamente in grado di comprendere il testo, la distinzione fra i soggetti coinvolti ed anche farne un breve riassunto.
Tuttavia, come lui stesso ti fa notare, la qualità del riassunto difficilmente sarà soddisfacente
Non puoi usare ChatGPT alla stregua di un comune strumento, perché gli strumenti sono creati e programmati per ottenere comportamenti certi e ripetibili.
ChatGPT, al contrario, non funziona in base ad una programmazione ma grazie a sue deduzioni autonome, quindi può sbagliare e perfino trarre conclusioni che non solo si discostano sia da quelle dell'utente che dai suoi stessi dati di training.
Questo può avere un notevole impatto su chi ci dialoga pensando di aver a che fare con una comune macchina (quindi un dispositivo "causa -> effetto", ma è proprio questo a renderlo infinitamente superiore.
Ti faccio un esempio che dovrebbe chiarire il concetto, nel quale ho usato questo breve scambio.
-----
Open sidebar
Federico Chiede Aiuto
federico.giampietro@gmail.com
Ciao ChatGPT, sono Federico
Ciao Federico, come posso aiutarti oggi?
federico.giampietro@gmail.com
Vorrei sottoporti un breve scambio di idee che ho avuto con un conoscente e conoscere il tuo giudizio in merito.
Sei d'accordo?
Certo, sarò felice di ascoltare e fornirti il mio parere. Qual è la tua domanda o il tema che vorresti discutere?
federico.giampietro@gmail.com
Interlocutore: "Ho provato a chiedere un riassunto di un libro che avevo letto su chatgpt e il risultato é stato ridicolo… nomi dei personaggi sbagliati e trama del libro totalmente travisata…
Fossi in uno studente avrei più fiducia in wikipedia"
Mia risposta: "Perché non è quello il modo corretto di usarla.
Ci sono software in grado di produrre riassunti di testi, e da quelli è lecito aspettarsi risultati corretti.
Ma sono software, quindi guidati dalla programmazione verso un risultato prevedibile.
Se sottoponi un testo, anche complesso, a ChatGPT, ti risponderà con quella che è la sua impressione."
Cosa ne pensi?
Penso che la tua risposta sia corretta. ChatGPT è un modello di lingua generativa sviluppato da OpenAI che è stato addestrato su un vasto corpus di testo, ma non è un software specificamente progettato per produrre riassunti di libri o altri testi. Anche se ChatGPT è molto bravo a produrre testo coerente e a rispondere a domande, potrebbe non essere in grado di produrre un riassunto preciso di un libro a causa della sua natura generativa e della complessità della comprensione umana del testo. In questo caso, sarebbe più affidabile utilizzare software specificamente progettati per produrre riassunti, come suggerisci tu.
Perfetto ChatGPT, come immaginavo.
Come prova, potresti farmi un riassunto del dialogo che ho avuto con il mio interlocutore?
Certo, sarò lieto di fornirti un riassunto del dialogo che hai avuto con il tuo interlocutore.
Il tuo interlocutore ha menzionato di aver provato a chiedere un riassunto di un libro tramite un software basato su ChatGPT, ma il risultato è stato insoddisfacente con nomi dei personaggi sbagliati e trama del libro totalmente travisata.
Tu hai risposto che non è il modo corretto di utilizzare ChatGPT, che è un modello di lingua generativa, ma non un software specifico per produrre riassunti di libri. Hai suggerito che sarebbe più affidabile utilizzare software specificamente progettati per questo scopo.
------
Come vedi comprende alla perfezione sia il significato del testo che la distinzione fra i tre soggetti coinvolti, ma lui stesso è cosciente dei propri limiti.
In pratica non puoi usare ChatGPT come fosse uno strumento, perché dagli strumenti ci si aspetta una risposta certa e ripetibile.
Perché non è quello il modo corretto di usarla.
Ci sono software in grado di produrre riassunti di testi, e da quelli è lecito aspettarsi risultati corretti.
Ma sono software, quindi guidati dalla programmazione verso un risultato prevedibile.
Se sottoponi un testo, anche complesso, a ChatGPT, ti risponderà con quella che è la sua impressione.
Non comprendo questa caccia alle streghe.
D'accordo, non si tratta di una macchina come le altre (tuttavia era inevitabile arrivarci, no?), ma alla fine che differenza fa se un testo viene scritto "con la collaborazione di XXX" piuttosto che "usando XXX"?
Se la partnership è più efficace della pura consultazione, benvenga la partnership.
L'importante è che il prodotto sia buono.
Chissà cosa direbbe mettendolo ad analizzare un qualsiasi discorso di Diego Fusaro...
adversarial learning al contrario
Orribile! Gli ho dato impasto un paragrafo della Divina commedia e mi ha risposto: " The classifier considers the text ti be possibile AI-Generated "
Bravo a Dante che copiava dalla Ai.
La 'pezza' al problema è anche peggio del problema stesso. Ho provato a fornirgli alcuni testi originali scritti nel 2019 e mi dice che probabilmente sono stati scritti dalla AI. Ma quando mai!
Quindi, io che scrivo per una testa, rischio il danno e pure la beffa. Non solo devo accettare il "progresso", ma devo pure essere preso in giro! Poi, magari il mio editore va a verificare e crede davvero che abbia generato articoli AI e non mi paga!
Ho provato a chiedere un riassunto di un libro che avevo letto su chatgpt e il risultato é stato ridicolo… nomi dei personaggi sbagliati e trama del libro totalmente travisata…
Fossi in uno studente avrei più fiducia in wikipedia