
07 Novembre 2023
14 Aprile 2023 74
Durante un recente evento sul futuro dell'intelligenza artificiale tenutosi il 13 aprile al Samberg Conference Center del MIT, il CEO di OpenAI ha avuto modo di parlare del suo popolare LLM che sta alla base del chatbot ChatGPT. Mentre si parlava dell'evoluzione dei sistemi di IA, è stata presa in considerazione anche la famosa lettera aperta firmata da Elon Musk e da svariati ricercatori del settore noti a livello globale.
Al suo interno si chiedeva una cosa molto semplice, ossia la sospensione nello sviluppo di LLM più potenti di GPT-4, per dare il tempo di valutare rischi e prendere decisioni per regolamentare al meglio questo delicato segmento. La lettera è stata oggetto di critiche, tanto quanto le tecnologie IA in oggetto, e lo stesso CEO di OpeanAI, Sam Altman, ha detto che nella lettera "mancano la maggior parte delle sfumature tecniche che indichino precisamente cosa vada messo in pausa".
Riguardo le preoccupazioni sull'arrivo di un aggiornamento dell'LLM alla versione GPT-5, Altman ha voluto dire la sua, smentendo le voci in tal senso.
Non lo stiamo sviluppando e non lo faremo per un bel po' di tempo. [...] Stiamo facendo altre cose oltre a GPT-4 e penso ci siano una serie di problemi di sicurezza che è importante affrontare, che sono stati totalmente esclusi dalla lettera
Sam Altman è ovviamente un po' polemico sulla lettera aperta, e quando parla dei problemi di sicurezza da risolvere prima di passare allo sviluppo di una versione più potente, non possiamo che pensare ai problemi di privacy sollevati proprio dal Garante della privacy nel nostro paese. Ecco un estratto del video, con lo scambio sopra descritto.
Forse molti dei detrattori delle tecnologie di intelligenza artificiale si sentiranno più tranquilli, ma in realtà bisogna tener presente che lo stop momentaneo agli sviluppi di GPT-5 potrebbe essere solo una sorta di specchio per le allodole. Siamo abituati a pensare alla numerazione incrementale del software come a una garanzia di miglioramento del nuovo rispetto al vecchio, ma in realtà questa soluzione è nata come una trovata di marketing per convincere i consumatori ad accaparrarsi la versione più recente, sia di un software sia di un eventuale hardware (lo sperimentiamo da sempre in ambito mobile con la telefonia). OpenAI potrebbe tranquillamente migliorare GPT-4, cosa che sta già facendo, senza modificarne il nome, pertanto a livello pratico la differenza sarebbe pari a zero.
In ogni caso, è molto probabile che OpenAI voglia evitare che le problematiche relative alla privacy degli utenti sfugga di mano, considerato che ulteriori blocchi potrebbero portare a un danno economico e d'immagine difficilmente recuperabile. Il Garante della Privacy in Italia ha posto le condizioni per rendere il sistema IA accettabile anche nel nostro paese, ma di fatto nelle ultime ore la questione ha preso risonanza europea ed è notizia recente che i Garanti della privacy europei, riuniti nel Comitato europeo per la protezione dei dati (EDPB), hanno deciso di avviare una task force su ChatGPT.
Come riportatovi nell'articolo di ieri, l’obiettivo della task force sarà di "promuovere la cooperazione e lo scambio di informazioni su eventuali iniziative per l'applicazione del Regolamento europeo condotte dalle Autorità di protezione dati".
Commenti
account gmail sono perché ho dfei device android ;)
Ba...se pensi che tutte le mail su gmail sono 'scansionate' pdf inclusi.....
ma poi stavo ripensando a questa conversazione e c'è anche un altra questione da aggiungere. tu dici "devono dare il consenso", però, per esempio, google, ed è successo, ci mette poco ad aggiornare le policy e obbligare la gente a dare il consenso per ricevere un servizio da tutti considerato essensiale per il quale la gente cliccherà su "si" senza pensarci due volte. a questo punto si palesa un altro problema, google l'accesso ai dati lo avrebbe (idem oper facebook e tutti gli altri) però un potenziale nuovo concorrente di google no. poi ci si lamenta dell'eccessivo accentramento. qua mi sembra che queste ipotetiche leggi farebbero fare a questo genere di soluzioni la stessa fine delle alternative di android sui telefoni. senza i dati non vai da nessuna parte -> nessuna concorrenza possibile.
e una condizione del genere è controproducente.
Quindi no, a meno che non ti soffermi particolarmente come per un'intervista. -> Una IA si sofferma su ogni singola cosa. E' esattamente così che funziona.
Tu stai chiedendo che non esistano modelli del genere perchè quei dati non li devono usare, anche se a nessuno che ha scritto quei commenti frega niente di quella roba. -> Chiedo che venga usata solo la roba autorizzata come è giusto che sia. E valutare anche di pagare chi ci mette tempo e impegno per produrre qualcosa che poi servirà ad addestrare una IA. Hai mai visto insegnanti che lavorano gratis?
Chi non si fa p1ppe mentali inutili o non deve fare la sua battaglia contro il gabidalismo neolibberista degli LLM, continuerà a usarli con l'open-source o tramite VPN e l'italia, o gli altri paesi europei che siadegueranno all'italia, rimarranno il nulla e saranno esclusi da una tecnologia incredibile. Fatti vostri. -> Ah ok, tu vivi in usa o Cina quindi non sei toccato da queste discussioni, per questo scrivi Vostri.
Hai tagliato ad arte la parte fondamentale:
Quindi no, a meno che non ti soffermi particolarmente come per un'intervista.
Hai mai acceso un TG in vita tua? Hai mai notato che i volti delle persone si vedono chiaramente? Ecco, non hanno fatto firmare nessuna liberatoria, perchè è legale riprendere in quel contesto e trasmetterlo.
Ma tralasciando questo esempio in cui hai torto e che c'entra ben poco perchè in ogni caso non c'entra nulla con il copyright, non esiste un modo per chiedere alla gente il permesso di usare un articoletto su un blog free o un commento inutile di 10 anni fa, quindi in pratica stai dicendo che non si possono sviluppare questi modelli, che richiedono centinaia di miliardi di token, non è che ti fai scrivere 100 mila parole da un'azienda e con quelle ci alleni modelli del genere.
Tu stai chiedendo che non esistano modelli del genere perchè quei dati non li devono usare, anche se a nessuno che ha scritto quei commenti frega niente di quella roba.
Chi non si fa p1ppe mentali inutili o non deve fare la sua battaglia contro il gabidalismo neolibberista degli LLM, continuerà a usarli con l'open-source o tramite VPN e l'italia, o gli altri paesi europei che si adegueranno all'italia, rimarranno il nulla e saranno esclusi da una tecnologia incredibile. Fatti vostri.
Ma nel caso di una IA tu ti soffermi chiaramente su ogni singola contenuto. Adobe ha infatti creato un posto dove pubblicare in modo che la IA impari ma paga anche per questo servizio. Non fa scraping di qualsiasi cosa.
Come linkato da te comunque filmare la strada non è legale:
Tuttavia, sebbene non costituisca reato, filmare la strada non è legale. La legge vieta la diffusione di immagini che non sia autorizzata dal diretto interessato [3]; pertanto, se si effettua un filmato di persone sconosciute, anche se si trovano in luogo pubblico, non potrà essere pubblicato o distribuito senza l’espressa liberatoria della persona ripresa, a meno che il volto o i tratti identificativi di questa non siano alterati in modo da renderla irriconoscibile.
Non c'è alcuna retribuzione, quindi non c'entra nulla con il materiale sotto copyright, e sopratutto no, non serve alcun permesso se camminando per strada faccio una ripresa senza soffermarmi specificamente su singole persone o volti.
https://www.laleggepertutti.it/253397_e-legale-filmare-la-strada#E_legale_filmare_un_luogo_pubblico
Se tu fai un video che viene pubblicato online in cui io compaio devi chiedere il permesso.
Per lo stesso motivo non si può filmare tramite videocamere il suolo pubblico.
No c'è il diritto dato dall'avere il copyright sulla propria creazione, se io faccio un video di te che parli in piazza Duomo non devo ovviamente darti nulla, se riproduco una canzone sotto copyright devo pagare per poterla usare.
E' tipo come funziona il mondo da sempre.
Quindi il diritto a fare soldi viene prima del diritto alla privacy o del diritto a veder riconosciuto un compenso visto che l'IA sfrutta, senza il mio consenso, cose fatte da me?
In realtà con la maggior parte dei contenuti online è più o meno così, ma lasciamo perdere.
Il punto è che chiaramente non è possibile fare quello che chiedi, quindi stai dicendo che non è possibile sviluppare modelli di questo tipo.
Continueremo a usarli con la VPN, se non troveranno un compromesso, e come sempre l'europa rimarrà indietro, evidentemente ci piace così.
Il modello è che chi vuole da il consenso. Se il consenso viene dato dietro una remunerazione o meno sono problemi loro.
Ma in legalese non esiste "chi tace acconsente". Altrimenti potrei dirti che se lasci fuori il barbeque sono autorizzato ad usarlo visto che non mi hai mai detto che non posso.
Quindi per te la soluzione sarebbe niente più modelli di questo tipo.
Pippo 4 anni fa ha dato il consenso no? No.
Fine.
La questione dei contenuti sotto copyright è diversa. Io ti ho chiesto un'altra cosa, e ti ho chiesto come dovrebbero fare a chiedere se il commento "ammazza che bella la nuova ferrari" scritto 4 anni fa da pippo65 possa essere usato.
Nella pratica come si fa sta cosa?
Disqus aggiunge un flag al profilo per l'autorizzazione al trattamento dei dati (di base su no) e tramite api permette di sapere se è sì o no.
E secondo il tuo ragionamento togliamo i copyright.
Tanto sono disponibili su internet, magari anche piratabili.
Non è che perché riesci a fare una cosa illegale allora diventa legale.
I commenti che hai scritto li hai scritti su internet dove possono essere visti da milioni di persone. Ti è chiara la differenza tra le due cose si?
Ancora non mi hai spiegato come dovrebbe funzionare la cosa del chiedere i vari permessi a pippo65 o ansem the seeker.
I dati, se non esplicitamente autorizzati, non devono essere utilizzati.
Se tu non hai le tende tirate le persone allora ti possono guardare in casa?
E i tuoi di dati, Si possono usare i tuoi commenti su disqus? Come dovrebbero fare? Mandano una mail a Ansem the Seeker? Come dovrebbero conoscerla?
E' una str*zata da paranoici della privacy di cui non frega nulla a nessuno.
no questo non c'entra niente con quello che dicevo io, se tu fai una media di valori e pubblichi una media senza nomi non c'è modo di risalire al nome originale. internamente i dati usati per "addestrare" non sono un problema in quanto quelli sono mascherati (oltre che non disponibili). sopra un utente parlava di diffamazione sulla generazione, io non capisco, se uno richiede i dati di "mario rossi" ha come risultato ciò che la net ha sul nome "mario rossi" e ciò che viene trovato su mario rossi da una ricerca web, ma non è "mario rossi" come definizione nella network ad essere legato a questo mario rossi. quindi il discorso di risalire dalla definizione della network io lo trovo ridicolo. e sulla generazione, ripeto quanto ho scritto sopra "volete accusare anche di diffamazione la palla magica?"
Funziona che puoi usare i dati solo dietro ESPLICITO consenso.
Come già avviene in realtà ora in molti casi. Non è che arriva pinco pallino e ti può tracciare.
Non girarci intorno, ti ho chiesto come dovrebbe funzionare la cosa.
Visto che è e sarà sempre di più uno strumento fondamentale, come facciamo in modo che questa palla al piede finisca?
https://www.dday . it/redazione/39094/accumulare-e-aggregare-dati-pubblici-si-chiama-scraping-si-legge-violazione-della-privacy
seconda metà dell'articolo
mi mandi qualche link?
Ci sono diverse ricerche che mostrano come risalire a chiunque partendo da pochi dati aggregati
Come funziona per ogni persona che lascia la porta di casa aperta senza volare: se entri in casa sua sei un criminale anche se ha tutto aperto
Dove ho detto che non "inventa"? ho detto che sulle informazioni personali non dovrebbe inventare, è diverso ;D ho detto che la possibilità di non farla "inventare" la hanno è un problema loro se non la hanno implementata su una casistica così importante come le info sulle persone
Se chiedi una cosa non può inventarla?
Queste sono le informazioni relative a Matteo Flora, il famoso imprenditore/docente esperto di informatica:
https://uploads.disquscdn.c...
E tra l'altro, se fai una ricerca sui libri relativi al "massacro del circeo" ne trovi diversi, ma NESSUNO ha come autore Matteo Flora...
Ma tu continui a dire che ChatGPT non può inventare notizie...
ChatGPT INVENTA. Fattene una ragione.
Non è questione di dati sensibili o meno ma di dati punto. Non viene specificata la base giuridica con cui memorizzano/utilizzano i dati che uno fornisce. Diamine il GDPR c'è da 7 anni ormai, possibile che questi di OpenAI non siano stati in grado di fare un'informativa decente? Per una volta che siamo stati noi ad accorgerci di una cosa corretta riusciamo a darci degli sc3mi da soli..
https://uploads.disquscdn.c...
sono loro ad averlo bloccato, pensano di essere immortali come apple e google
Oh, esistono problemi di privacy? Ma che, davvero?
VPN
Vedi che non hai capito il messaggio, il garante (che poi è stata open ai a bloccare il servizio in Italia) può fare poco contro le VPN, lo vuoi usare? Usalo... Ma chiedersi cosa ha fatto il garante mi sembra assurdo... È come prendere e far fumare il figlio di 5 anni e chiedersi che utilità ha la legge sul fumo per i minorenni...
ma di cosa avrei dovuto discutere? della moralità del dover usare chatgpt con una vpn?
il thread era molto semplice, lui ha chiesto "che ha risolto il garante?" e tu hai risposto come se chi lo usasse facesse un atto deplorevole (come fosse un lebbroso nel medioevo).
quando invece il punto era discutere sulla utilità della scelta, sul cosa comporta l'utilizzo, su quali siano i problemi e così via.
invece c'è gente che scrive "ecco se lo meritavano" "diamoci tutti una calmata" "giusto che si discuta prima l'argomento".
sai di quanti argomenti ci sono sviluppi e non sono noti ai più, tanto più che ci mancherebbe ancora che qualcuno debba discutere del presunto utilizzo di dati personali per operazioni come quelle. quando la medesima operazione la fa tutti i santi giorni google con, toh, l'analisi del traffico. e però lì il problema non si pone.
attacco diretto nel senso che non c'è discussione sull'argomento, nonostante ci potrebbe essere. toh, leggevo gli altri commenti qui sotto, ma il problema di "mariolino" è anche lì un assurdo. qua sembra che si voglia accusare di diffamazione anche la "palla magica numero 8".
ma poi io non capiscono cosa vogliono andare a cercare di informazioni personali dentro a dei parametri con numeri che derivano da centinaia, migliaia di iterazioni su un dataset ognuno con centinaia, migliaia di iterazioni su sotto-gruppi di quel dataset.
qua siamo all'assurdo!
e allo stesso tempo se io andassi fuori di casa e mi facessi fornire dalla gente una preferenza di acquisto (con un contratto di non-divulgazione) e poi facessi delle statistiche, stando a questo ragionamento non potrei usarli perchè in quelle statistiche ci sarebbero i dati di chi potrebbe non voler più darmi l'utilizzo di dati personali.
robe da matti!
non per difendere biggggggggggggg ma sti attacchi diretti proprio non li capisco.
allora, visto che nell'altro articolo sei arrivato a scrivere qualcosa del tipo "se non hanno previsto un modo per far disimparare sono affari loro", io per pari condizioni dovrei scrivere che "io mica posso venire a casa tua a spiegarti come funziona il machine learning, il materiale in giro c'è, poi se in casa tua preferisci ... è una tua scelta" (ci siamo capiti).
a proposito, ti do un numero 315.772. tale numero deriva da una serie di iterazioni, neanche consecutive, con sottoinsiemi randomici di valori inseriti dagli utenti dei quali è calcolata la media. mettiamo che un utente dica "non voglio che il mio numero rientri in quella media", un numero per esempio 153.4, come fai tu avendo il risultato sopra (e non potendo rifare tutto dall'inizio per ovvie ragioni) a scorporare quel numero da quella media? oh se riesci a farlo, scrivi un po' a openAI, perchè sarebbero interessati a pagarti la scoperta di sicuro!
Se in open ai hanno messo su una ia senza paletti sulle risposte sulle persone è un problema loro
Se io gli chiedo "che lavoro fa Mariolino" non può inventarselo, non ha senso... Si rischia pure la diffamazione... Per molte risposte è già bella imbavagliata quindi le richieste del garante sono sia legittime che fattibili
Il discorso non era questo. Il discorso riguardava i "dati sensibili".
Secondo l'autore del thread, visto che chiedendo a ChatGPT orientamento sessuale o altre informazioni "sensibili" su una persona si otteneva una risposta, questa era segno di una violazione dei "dati sensibili" della persona.
Stavo solamente rispondendo che i dati sono spesso inventati, e che quindi una risposta NON è una violazione di dati sensibili perché non corrisponde ad un reale accesso a tali informazioni.
Che la risposta possa piacere o non piacere, e nel secondo caso vada rettificata è un altro discorso, su cui siamo d'accordo (anche se per me è meno semplice di quanto altri ritengono).
Non ho bisogno di guardare video grazie... Mi basta sapere che TU capisca come funziona questa ia... Anche se "inventa" risposte queste sono comunque controllabili, "basta" che il papi gli dica che per pinco pallino non deve dire che è un putt@nier3
Certo che le risposte non le fa con la magggia, ma la risposta non è una query da una base dati, è generata in altro modo.
E se non ha sufficienti dati, la risposta è inventata.
Guarda questo video, spiega bene come funziona QUESTA AI (altre funzionano in modo diverso):
https ://www .youtube. com/watch?v=QBjHhFrFZ8Y
Si infatti basta aprirlo con Opera
"ChatGPT INVENTA più o meno la metà delle cose che dice. "
Ti ho già letto con sta cassata, ti rendi conto che non ha senso? è come dire che una persona inventa le risposte, le risposte uno le da in base al proprio umore, bagaglio tecnico e culturale etc... una ia semplicemente in base ai dati e a come viene addestrata, non lo fa con la maggia, quindi le risposte sono comunque controllabili e pilotabili
Non perdere tempo, lui è Black Leopard ed è l'unico che conosce davvero le AI.
Noi parliamo sempre e solo a vanvera