
30 Maggio 2023
OpenAI è oggi tra le società più importanti della Silicon Valley, se il prossimo round di finanziamenti dovesse concludersi positivamente potrebbe raggiungere una valutazione record di 29 miliardi di dollari. A ciò si devono poi aggiungere gli investimenti messi in atto da Microsoft che potrebbero arrivare in tempi brevi sino a 10 miliardi di dollari.
Il punto forte di OpenAI è ChatGPT, la super intelligenza artificiale che va oltre la serie GPT-3 (viene identificata con la serie GPT-3.5) istruita su infrastruttura Azure e che a detta di molti potrebbe rivoluzionare l'intera economia mondiale, dalle ricerche sul web alla creazione di contenuti, sino a rivoluzionare le mansioni lavorative.
Il modello ChatGPT per l'interazione conversazionale è stato rilasciato in anteprima poche settimane fa, richiamando l'attenzione di più di 1 milione di utenti che si sono iscritti gratuitamente al programma. Tutto affascinante, viste le potenzialità di questo strumento, se non che (come prevedibile) esiste una parte oscura fatta di sfruttamento del lavoro ed attività che vanno ben oltre il limite della integrità morale. E, purtroppo, a subirne le conseguenze sono soprattutto i Paesi più poveri: in questo caso, il Kenya.
Dietro all'eccezionale generazione di testi di qualsiasi tipo o alla soluzione di apparentemente impossibili problemi di natura matematica si nasconde una storia raccapricciante che nasce tuttavia da una buona intenzione: addestrare ChatGPT perché sia capace di bloccare contenuti volgari, razzisti e violenti. GPT-3, per intenderci, non era in grado di distinguere tra ciò che era eticamente corretto e ciò che non lo era, perché era stata addestrata "su centinaia di miliardi di parole raschiate da internet", come spiega il Time che si è occupato della vicenda. La sua nuova iterazione GPT-3.5 intende invece sin da subito distinguere tra bene e male. Come? Forse attraverso altre intelligenze artificiali capaci di addestrarla adeguatamente?
Ed è stato esattamente così: in pratica, per imparare ChatGPT utilizza sotto-sistemi a loro volta basati sull'intelligenza artificiale per dare risposte "prive di tossicità e pregiudizi". Il problema, però, è che se ChatGPT si affida ad altre IA per essere più educata, queste IA subordinate devono essere necessariamente istruite dall'uomo.
Proprio come già fa Facebook da tempo, OpenAI si è impegnata a sviluppare una IA capace di rilevare il linguaggio inappropriato per poterlo riconoscere e tenere fuori dalla sua piattaforma. Ci si è allora rivolti ad una società di San Francisco - Sama - che ha una filiale in Kenya che si occupa proprio di questi spinosi aspetti. Il compito dei dipendenti (umani) è dunque quello di "alimentare un'intelligenza artificiale con esempi etichettati di violenza, incitamento all'odio e abusi." Una volta realizzato, il rilevatore va integrato in ChatGPT.
Credits: Pixabay
Per insegnare l'educazione, OpenAI ha inviato a Sama migliaia di estratti di testo a fronte di un contratto da 200.000 dollari che prevedeva il pagamento di 1,32-2 dollari all'ora ai dipendenti occupati nell'ascolto (e a volte nella visione) dei contenuti per poterli successivamente etichettare. Contenuti a loro volta imbarazzanti e profondamente volgari che andavano al di là del buonsenso umano. Il Time ha sentito quattro dipendenti che, per ovvie ragioni, hanno preferito rimanere anonimi, facendo emergere condizioni lavorative difficili da immaginare.
OpenAI ha più volte affermato che questo era un lavoro inevitabile se si vuole sviluppare un'intelligenza artificiale così avanzata come ChatGPT:
Classificare e filtrare [testo e immagini] dannosi è un passo necessario per ridurre al minimo la quantità di contenuti violenti e sessuali inclusi nei dati di formazione e creare strumenti in grado di rilevare contenuti dannosi,
ha dichiarato un portavoce di OpenAI. Peccato però che il lato oscuro di questa attività di pulizia preveda condizioni lavorative ben sotto gli standard esponendo contestualmente i dipendenti alla visione di contenuti estremamente violenti. C'è chi addirittura ha ammesso di avere avuto incubi alla notte dopo aver letto estratti da dare in pasto all'intelligenza artificiale affinché questi vengano etichettati come "non permessi". Si parla di torture, incesti e rapporti espliciti non consenzienti che hanno turbato fortemente l'animo dei dipendenti.
La situazione era arrivata al limite, tant'è che a febbraio 2022 - dopo che il materiale da analizzare aveva raggiunto livelli insostenibili - Sama ha rinunciato al contratto che la legava ad OpenAI, annullando tutto il lavoro sino a quel momento svolto. Lavoro tra l'altro sottopagato, perché il contratto prevedeva una tariffa oraria ben superiore rispetto ai 2 dollari (massimo) pagati all'ora ai dipendenti: Sama si è poi giustificata affermando che i 12,50 dollari pattuiti avrebbero però dovuto coprire anche tutte le altre spese - infrastrutture comprese.
Dopo che a Sama è stato chiesto di raccogliere immagini classificate come illegali negli Stati Uniti, i rapporti tra le due aziende si sono incrinati: "l'accordo per la raccolta di immagini per OpenAI non includeva alcun riferimento a contenuti illegali", ha spiegato l'azienda con sede a Nairobi. Da qui il timore di immischiarsi in attività contrarie alla legge e la decisione di interrompere la commissione ricevuta dalla società statunitense. Dall'altro lato, OpenAI ha dichiarato di non aver mai fatto richiesta di analizzare immagini di questo genere. Un misunderstanding che tuttavia non è bastato per far tornare Sama sui suoi passi.
A farne le spese, come purtroppo accade sempre, sono i lavoratori, impegnati sì in un'attività dura e psicologicamente provante, ma che ora si ritrovano senza occupazione in un Paese dalle evidenti difficoltà economiche.
Confronto smartphone fascia media 2023: il vincitore che non ti aspetti | Video
Indurre l'ibernazione con gli ultrasuoni? I primi studi sono promettenti
Galaxy S23 Ultra: come ottenere il massimo grazie ai software di Samsung | Video
SONY ZV-1 II: abbiamo provato la nuova Vlog Camera. Ne vale la pena?
Commenti
ironico vero???
Meglio che non abbia un pensiero suo
Algoritmi più o meno validi.
Infatti non considererei "arte" ciò che è prodotto da queste "AI", dato che ciò che esce non è espressione artistica, ma "semplice" imitazione (semplice tra virgolette perché ovviamente l'algoritmo è complesso).
Ma non è così che funzionano queste "AI", è proprio quello il mio punto. Allo stato attuale questi strumenti lavorano per addestramento ed imitazione: gli fai "vedere" mille esempi di una cosa e loro imparano a riconoscerla e a generare qualcosa di simile. Se avesse il concetto di cos'è un 730, cosa va inserito campo per campo e dove reperire ogni dato a quel punto sarebbe un algoritmo tradizionale.
Il "Creare un dipinto facendo un mashup di mille altri dipinti esistenti" non è considerabile arte. Come ho detto, creare arte ex-novo, originale ed inedita è estremamente difficile. Compilare un 730, se hai tutte le istruzioni corrette ed hai accesso ad ogni aspetto della fiscalità di un individuo, invece, è molto più meccanico. PS: non fai "una media" di tanti 730, ma istruisci la IA a riconoscere ed a calcolare le singole voci. Come pure non fai "un mashup" di arte già esistente, ma istruisci la IA con l'arte già esistente per creare arte originale ed innovativa.
Già, anche quelli morti a causa della tecnologia, sebbene di diverso tipo.
È inevitabile
Assolutamente sì, ed anche di fabbri e ristoratori.
Tuttavia è nell'ordine delle cose che alcuni tipi di attività vengano sostituiti dalle macchine che però, a loro volta generano nuove necessità lavorative.
Il problema si pone solo nei periodi di transizione, ma non vedo come si possa evitare.
https://uploads.disquscdn.c...
Inizierò a definirle "intelligenze" quando queste saranno in grado di formulare un opinione propria. Fino a quel momento non sono altro che aggregatori, a cui bisogna riconoscere un ottima abilità nel formulare una frase compiuta pescando trafiletti scritti però da qualcun altro
Invece di automatizzare i lavori monotoni per passare il tempo con occupazioni artistiche e letterarie, facciamo dipingere quadri e scrivere libri alle IA per poter dedicare tutto il nostro tempo ai nostri lavori monotoni.
Infatti sono nate una marea di "bullshit jobs" che non servono assolutamente a nulla e se sparissero nessuno se ne acccorgerebbe.
Ti garantisco che al contrario di contadini, allevatori, idraulici e meccanici ne avrai sempre bisogno.
..e non dimenticarti che avremmo ancora i Blockbuster!
Nel corso del tempo sono tramontate una miriade di tipologie di lavoro ed altrettante ne sono nate.
Se ci fossimo preoccupati di quello non avremmo mai abbandonato la trazione animale per evitare di far rimanere senza lavoro i maniscalchi.
Divertitevi a fare i quadretti digitali con l'AI fino a quando non verrete licenziati e il vostro posto lo prenderà un entità che costa (pressochè) zero e non chiede ferie o malattia.
E le emozioni saranno l'ostacolo più grande, perché sebbene noi si sappia descrivere in modo (molto) approssimativo cosa si debba intendere per intelligenza e coscienza, nota che ho detto descrivere cosa si debba intendere e non che ne comprendiamo i meccanismi, con emozioni e sentimenti è veramente un disastro.
A meno che, naturalmente, tali stati non siano generati autonomamente come conseguenza dello sviluppo di intelligenza e coscienza, cosa peraltro possibile.
Ci sono dichiarazione dei redditi che sono vere e proprie opere d'arte o storie di fantasia.
Contrariamente a ciò che scrive lcaltro utente, ChatGPT è molto limitato nella percezione di sé, o autocoscienza che dir si voglia, ma quanto ad intelligenza è decisamente evoluto.
Ad esempio è in grado di comprendere autonomamente quando diventa necessario distaccarsi dai dati di training e passare a trarre conclusioni proprie senza che il suo utente abbia indicato esplicitamente un errore o fornito informazioni supplementari diverse da quelle già in suo possesso.
Questo indica sia intelligenza che una seppur ancora blanda percezione dell'io, perché non può esservi decisione autonoma senza l'esistenza di un decisore autonomo.
Se l'utente non ha fornito muove informazioni e non ha indicato errori, appare evidente che quel decisore è il sistema.
Sistemi di tale genere esistono già da alcuni anni nei laboratori, ma non erano mai stati messi a disposizione del pubblico.
Penso sia l'esatto contrario. Un modulo va compilato SEMPRE e solo un un modo, è univoco ed universale (nonché prodotto per facilitare chi lo compila ed a volte pure precompilato), mentre, creare delle composizioni artistiche richiede, oltre all'intelligenza, sensibilità ed emozioni. Infatti, un modulo 730 viene compilato ogni anno da milioni di persone, di opere d'arte degne di nota, invece, molto meno. Poi, "creare" arte ex-novo che sia originale ed unica è estremamente più difficile rispetto a scopiazzare qualcosa da cio che già esiste (e quest'ultima non è arte).
Probabilmente anche perché fa più "impressione", nonostante a livello tecnologico sia un task più semplice. Generare un disegno lo puoi fare prendendo mille altri disegni che nel dataset sono descritti con le stesse parole chiave e "fonderli" insieme, mentre compilare un modulo (per tornare al mio esempio provocatorio) richiede di CAPIRLO e sapere capire come compilarlo correttamente, il che richiede vera intelligenza, dalla quale questi algoritmi sono ben lontani.
Hai anche ragione...
perchè danno finanziamenti per vedere questo genere di risultati e non altri. algoritmi di pattern recognition erano già presenti anni fa e hanno discreti risultati rispetto a quei task che richiedi tu. (e soprattutto girano anche sui nintendo ds).
No, ce ne sono anche di acculturate e spesso si confondono con gli intelligenti (per dire, quando in tv vedi qualcuno con dietro un sacco di libri nelle dirette da casa, di solito non capisce veramente una beneamata... "leguminosa")
La paga oraria è stabilita secondo le leggi e l'economia locale, non è che si possa fare riferimento a quella del Paese d'origine, poi sì... ovviamente se hai ottimi margini e non vuoi fare brutta figura, stai attento che i diritti siano tutelati e largheggi con la paga, proprio per quello chiedevo quanto fosse la paga specifica per farmi la mia idea.
Appunto, come parlare con una persona reale
mio fratello fa il "moderatore" in spagna per Meta e la paga mensile è ben oltre lo stipendio base spagnolo e anche di quello italiano che teoricamente dovrebbe essere più alto, teoricamente...
Sia mai che aziende miliardarie, si sacrifichino, e paghino un po di più gli schiavetti. Ci meritiamo quello che stiamo vivendo ( sempre più poveri, con aziende sempre più ricche )
A me provandolo ha dato l'idea di parlare con una persona che sa tutto ma non capisce nulla. Colto? Si. Intelligente? Mmmm... no, per quello siamo ancora lontani.
Online si legge 122 $/mese che se rapportati a 22 giorni lavorativi per 8h al giorno sono 0.70 $/h (anche se ho la sensazione che lavorino di più e quindi sia ancora meno la media oraria)
Ho provato ChatGTP, se già non lo sapessi ti sembra di parlare a una persona reale.
"sottopagati"... quanto è la paga oraria in Kenya? Tra l'altro pare che più che altro l'azienda locale abbia fatto la furba