AI generativa, preoccupazione sull'etica. E il responsabile di Google se ne va

02 Maggio 2023 102

Con il diffondersi dell'intelligenza artificiale generativa sono emerse forti preoccupazioni di natura etica tanto da spingere istituzioni e portatori d'interesse a chiedere un temporaneo stop al suo sviluppo. I timori che i chatbot possano avere ricadute negative sulla società sono stati amplificati dagli ultimi ritrovati - ChatGPT su tutti - ma esistono in realtà da diversi anni, da quando cioè le big tech hanno iniziato ad occuparsene a tempo pieno. E intanto da Google se ne va Geoffrey Hinton, uno dei guru dell'intelligenza artificiale dell'azienda.

PARLA BLAKE LEMOINE

Torna a parlare dopo diverso tempo Blake Lemoine, ingegnere esperto di AI allontanato da Google l'estate scorsa per aver violato ripetutamente i contratti d'impiego e le politiche sulla sicurezza dei dati e dopo aver detto pubblicamente che il sistema LaMDA è capace di provare emozioni esattamente come un essere umano, affermazione che la società di Mountain View ha sempre fortemente rigettato etichettandola come falsa. L'intervista a Futurism è stata occasione per conoscere il punto di vista dell'ex dipendente: al momento del licenziamento l'opinione pubblica ancora non sapeva nulla di ChatGPT e Bard, ora che l'intelligenza generativa è nota e disponibile è interessante riprendere le parole di Lemoine contestualizzandole al periodo attuale.

Lemoine spiega che già nel 2021 era in corso una valutazione sulla effettiva sicurezza di LaMDA, "accusata" di integrare negli algoritmi una serie di pregiudizi "impliciti nei dati su cui è addestrato". "Negli ultimi 12 mesi non è uscito nulla che non avessi già visto in Google. L'unica differenza è che questo rapido movimento è ora visibile al pubblico", aggiunge l'ex dipendente. E uno dei maggiori pericoli di natura etica deriva dal fatto che le grandi aziende che sviluppano l'AI contestualmente si impegnano a definirne la regolamentazione "esercitando pressioni sulle autorità per far approvare una legislazione preferenziale". Con un grande rischio: "le aziende tecnologiche cercheranno di far approvare una legislazione che regolerà la tecnologia che i regolatori non sanno ancora esistere".

Google non sarebbe poi stata costretta ad anticipare il debutto di Bard a causa della pubblicazione di ChatGPT: Lemoine ritiene infatti che il rilascio della sua intelligenza artificiale sia avvenuto secondo i piani, il ritardo di qualche mese sarebbe scaturito da questioni legate alla sicurezza. E ciò che ha in mano la società guidata da Sundar Pichai è ancora più avanzato di quanto sia stato sinora pubblicato: addirittura il livello dell'attuale Bard che noi conosciamo sarebbe quello di un paio anni fa. "Quello che hanno fatto negli ultimi due anni è stato lavorare sulla sicurezza [...] assicurandosi che non abbia pregiudizi razziali o di genere, o politici".

Ma evidentemente ciò non è bastato, perché i pericoli che si nascondono all'interno della tecnologia sono ancora molto evidenti: Lemoine cita nell'intervista il caso di suicidio in Belgio di una persona dopo che questa ha avuto una conversazione con l'intelligenza artificiale. E bisognerà anche vedere come si completerà questa fase di addestramento attualmente in corso, se cioè l'intelligenza artificiale davvero diventerà simile a quella umana. Con un ulteriore problema di natura etica: se anni fa si era deciso lo stop allo sviluppo di alcune tecnologie genetiche perché portavano con sé troppi dilemmi etici, perché non fare lo stesso con l'AI generativa?

Abbiamo capito come farlo. Mettiamolo sullo scaffale per 30 anni, ad esempio, e torniamoci una volta che avremo messo in ordine la nostra casa. [...] C'è una possibilità che - e credo che sia così - provino sentimenti e possano soffrire e provare gioia, e gli esseri umani dovrebbero almeno tenerlo a mene quando interagiscono con loro.

IL PADRINO DELL'AI DI GOOGLE LASCIA L'AZIENDA

Se ne va da Google Geoffrey Hinton, uno dei maggiori conoscitori dell'AI in azienda: "me ne sono andato per poter parlare dei suoi pericoli", ha rivelato su Twitter. Nulla contro l'azienda - "Google ha agito in modo molto responsabile" - come invece alcuni media americani avevano riportato in queste ultime ore.

Il "padrino dell'AI", così come viene definito, ha preso questa decisione dopo aver visto nascere una vera e propria competizione tra le diverse aziende. Prima di lui avevano lasciato Timnit Gebru e Margaret Mitchell del team Ethical AI di Google, licenziate per aver criticato il comportamento dell'azienda sulle questioni etiche correlate all'intelligenza artificiale.

Credits immagine d'apertura: Pixabay


102

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Il corpo di Cristo in CH2O

no, certo, ma è innegabile che ci siano contesti dove la "libertà delle idee" sia un vantaggio. il concetto del "brainstorming" nasce anche da questa realizzazione. il problema non è la moralità in quei contesti, ma la decenza nell'applicazione finale.

biggggggggggggg

Però ripeto, Geoffrey Hinton parla di ben altro, principalmente di deepfake e la questione dei lavori persi, non di scenari fantascientifici.

Comunque 10 anni fa l'algoritmo era molto simile ad oggi, il vero passo in avanti c'è stato con l'attention di cui parla all'inizio il link che ti ho mandato. La self-attention è quel meccanismo che permette al modello di dare output contestualizzati, è quello che gli permette, per esempio, di fargli scrivere del codice con le tue variabili anche se lui ha imparato un codice simile con altre variabili, è ciò che gli permette di usare i termini giusti nelle traduzioni, cioè contestualizzati (esempio: tradurre "warm up" in "riscaldamento" invece che "scaldare sù" come avrebbero fatto le vecchie reti neurali), e tante altre cose.

Ma parliamo sempre di un algoritmo, di coscienza non c'è nulla.
Anche perchè non serve un qualcosa che assomigli ad una coscienza per creare AI molto più evolute.

GeneralZod

Molto interessante. Diciamo che è una simulazione statistico-matematica di un ragionamento linguistico (passami il termine). In essa ci sono ancora diverse carenze. Ma fino a 10 anni fa, cose del genere erano quantomeno impensabili. Nei prossimi 10 le cose potrebbero avanzare in modo da colmare sempre più carenze in questa simulazione. Una volta che saranno tutte colmante, per noi sarà impossibile capire se la macchina avrà o meno coscienza di sé. Potremmo anche dover rivedere il concetto stesso di coscienza. Ed il fatto che dietro ci sia un algoritmo, non lo renderà meno reale. Quindi gli scenari magari non esisono oggi o non sono ancora di pubblico dominio. Da qui le perplessità, spesso solo sensazionalistiche, di acluni addetti ai lavori.

BATTLEFIELD

il mio commento non esprimeva un giudizio morale (se non per i "leoni da tastiera") :)

redshift

https://media1.giphy.com/me...

Il corpo di Cristo in CH2O
il nostro pensiero/atteggiamento senza esporci al rischio di esclusione sociale

beh forse l'ultimo punto è un bene, almeno si ottiene quello che non si otterrebbe nella vita reale per la vergogna di esporsi. se invece dovesse rivelarsi una buona idea, tutto di guadagnato.

BATTLEFIELD

senza volermi arrogare competenze che non ho, la risposta alla tua domanda è semplice: la comunicazione avviene a molti livelli ed è molto più di un semplice scambio di informazioni (che ne rappresenta il livello minimo). Su internet mancano quasi tutti i livelli a cui avviene lo scambio (con le dovute eccezioni) e, soprattutto, è più facile fare i leoni da tastiera poichè non si è soggetti alle conseguenze esperibili nella vita reale. Internet ci mette nelle condizioni di "radicalizzare" il nostro pensiero/atteggiamento senza esporci al rischio di esclusione sociale.

BATTLEFIELD

per carità! Perfettamente d'accordo a patto di non cadere nell'errore opposto

biggggggggggggg

Sbaglia proprio perchè non ragiona. E sbaglia dove gli umani non sbaglierebbero (ad esempio con le addizioni).
Ti consiglio di vedere questo per capire davvero come funziona, mettendo da parte scenari che non esistono:
https://jalammar.github.io/illustrated-transformer/

GeneralZod

Lasciamo stare le emozioni che potrebbero essere una caratteristica prettamente animale, anche una volta raggiunta la singolarità tecnologica. ChatGPT può sbagliare ed essere inaffidabile. Per questo è importante che venga usata con consapevolezza. Per me questa cosa però la rende ancora più "umana".

GeneralZod

Anche io lavoro sotto NDA e ho il sospetto che tante cose non le possa dire. Possono aver avuto accesso a "prototipi" e simulazioni abbastanza inquietanti in fase di ricerca. Lungi dal fare il complottista ma sospetto che quello che ci viene somministrato sia solo la punta dell'iceberg.

marcy9487

Tanto per dimostrare per l'ennesima volta il livello infimo del giornalismo generalista televisivo italiano, ieri sera al TG5 (messo per sbaglio mentre accendevo la TV): "se ne va da Google l'INVENTORE DELL'INTELLIGENZA ARTIFICIALE preoccupato dalle cause che potrà avere".........
Il problema ovviamente è che poi la gente ci crede.

per quelli netflix sarebbe solo un miglioramento

delpinsky

Esatto, altrimenti si entra nel mondo della "superstizione", quando non si conoscono le basi dell'argomento, alimentando teorie strampalate. Però credo che in un futuro non troppo lontano, non sia impossibile che un AI avanzata a tal punto da comprendere la natura umana in ogni suo dettaglio, possa a sua volta essere in grado di "riprodurre" le emozioni umane, empatizzando con gli esseri umani attraverso linee di codice super-complesse.

biggggggggggggg

Non credo, visto che glielo chiesto diverse volte e mi ha sempre dato risultati sbagliati.
Ho chiesto altre addizioni del genere e le ha sempre sbagliate (GPT-4).

Questo proprio perchè non sa fare le addizioni.

uncletoma

in pratica faranno solo film comici

ADM90

39519620798.

Il corpo di Cristo in CH2O

ahimé è proprio così !
(certo che con una chiacchierata si risolve tutto eh, ma su internet una chiacchierata non è sempre semplice da fare, ma non chiedermi il perchè)

ErCipolla

Prima o poi arriveranno di sicuro, ma io mio discorso è riferito alle affermazioni che il tizio ha fatto sullo stato attuale delle cose, e sono dimostrabilmente errate. Domani si vedrà, magari i modelli che raggiungeranno la singolarità non saranno neanche simili a quelli attuali...

biggggggggggggg

Chiedigli quanto fa 490585898+39029034900.

biggggggggggggg

Intelligenza è un termine vago e non ben definito.

2+2 fa 4 perché sai cosa significa 2, 4 e cosa sia l'aritmetica.

Esatto, cosa che non accade con GPT.
Una volta che mi spieghi cos'è un'addizione, io ho una semantica (parola chiave) dell'operazione, mentre GPT non ce l'ha.
Ho fatto una prova ora, con GPT-4, che è il top del top. Se gli chiedi quanto fa 5+5 ovviamente ti dirà 10.
Gli ho chiesto quanto fa 490585898+39029034900 e ovviamente ha cannato alla grande la risposta (ha sbagliato 7 cifre su 12), per il semplice fatto che nel training set non c'era quest'operazione, e quindi ha creato un input basandosi su qualcosa di simile ma evidentemente sbagliato.

A te dà l'impressione che ci sia una sorta di ragionamento, ma non c'è nulla di tutto ciò, è solo bravo a ripetere ciò che ha già visto.

L'unico problema è appunto che passerebbe un test di turing, illudendo le persone di avere capacità che in realtà non ha.

Ci sono esperti preoccupati dalla tecnologia, ma non dicono minimamente cose come queste. Tipo che provano emozioni o che inizieranno a "pensare" per fatti loro.
Geoffrey Hinton non dice nulla di tutto ciò.

ADM90

Vero. Ho formulato delle domande e argomenti in italiano su Google e mi ha dato pochi risultati. Le stesse domande su chat gpt 4 hanno formulato dei papiri di dati (si spera) veritieri e precisi (ho fatto domande su alcuni sistemi pensionistici e altri dati economici)

GeneralZod

Dall'estremo opposto tu ti soffermi su un meccanismo del suo funzionamento. Come se ti dicessi che noi siamo solo sintesi proteica o basi azotate. Certamente mi soffermo sul risultato. Posso accettare anche di essere ingannato da un finto ragionamento. Ma prima o poi quel ragionamento e la relativa coscienza, arriveranno.

zdnko

li sostituiranno con l'AI

Davide

se si vuole diventare dei santoni sull'AI, questo é il momento buono per farlo.
In un modo o nell'altro si cerca di cavalcare l'onda

ErCipolla

Stai guardando al risultato finale che superficialmente può apparire intelligente, allo stesso modo in cui una persona in possesso di una copia della Treccani in inglese e una copia della stessa edizione in italiano può dare l'impressione di saper tradurre dall'inglese all'italiano, semplicemente con un po' di pratica nel fare "trova e sostituisci". Ma i meccanismi sono completamente diversi e poco comparabili, in particolare noi abbiamo tutta una serie di direttive (incise nel nostro DNA) che ci fanno sviluppare pensieri autonomi e reagire a situazioni in un modo che esula dal banale conto probabilistico che fanno le ia.

In quanto al risolvere problemi: se hai provato chatgpt ti sarai accorto che se gli poni un problema a volte lo risolve correttamente ma altre spara fuori cagate atomiche anche per problemi molto semplici (più semplici magari di altri che ha risolto correttamente). Come si spiega? Si spiega proprio perché non è "intelligente" per come intendiamo noi homo sapiens, non capisce veramente il problema o le sue implicazioni, ma banalmente va a cercare un problema simile già risolto nel suo grafo di conoscenza e sostituisce i parametri che riesce ad individuare. A volte ci azzecca e a volte no, ma non ha coscienza di ciò che sta facendo o introspezione riguardo alle sue tecniche di problem solving, e infatti non è in grado di rendersi conto che ciò che ha generato non ha senso e di sviluppare un approccio diverso al problema.

uncletoma

due parole sullo sciopero degli sceneggiatori americani potevate metterle, no?

GeneralZod

E io ti dico che la nostra conoscenza si basa su concetti simili. 2+2 fa 4 perché sai cosa significa 2, 4 e cosa sia l'aritmetica. Ovvero anche tu hai fatto training. Abbiamo sottoposto problemi del tipo "trova il bug nel codice", senza dargli contesto. Non solo ha capito cosa dovesse fare il codice, ma pure dov'era l'errore! E ti garantisco che molti umani non avrebbero saputo rispondere. Poi è chiaro che in alcuni ambiti riesca meglio che in altri. Ma se ad una domanda risponde in modo sintatticamente ineccepibile e semanticamente nel giusto contesto, è intelligenza. Non c'è altra parola. Specie se supera senza problemi il test di Touring o esami universitari. Se persone"migliori di noi" ne sono preoccupate, tendenzialmente non sarei superficiale nel riconoscerne le potenzialità o la pericolosità. Ovviamente IMHO.

biggggggggggggg

Diciamo che un pappagallo a cui inizi a parlare, dopo un po' ripeterà senza cognizione di causa ciò che fa, mentre alcune specie molto intelligenti riescono anche a dare un significato semantico a ciò che gli viene detto, e qui sta la differenza.
Un pappagallo di una specie poco intelligente all'inizio del suo "addestramento" e GPT sono fondamentalmente la stessa cosa. O se non vogliamo usare i pappagalli possiamo dire che se prendi un cane da piccolo e lo meni quando cerca di andare in cucina, lui risponderà semplicemente ad uno stimolo, non avrà capito che lì c'è la cucina o cosa sia una cucina.
Il modo in cui GPT impara è esattamente questo.
Se vuoi allenare un modello stile GPT per riassumere testi, e gli fornisci la coppia input-output:

"I have bought several of the Vitality canned dog food products and have found them all to be of good quality. The product looks more like a stew than a processed meat and it smells better. My Labrador is finicky and she appreciates this product better than most."

Con l'output:

"Good Quality Dog Food"

Finchè non tirerà fuori "Good Quality Dog Food" o qualcosa che gli somiglia, continuerà il training. Ma non è che dopo avrà creato un "concetto". Lui deve soltanto create stringhe come vuoi tu, stringhe composte da token (composti da sub_token).

Il punto principale è che il cervello umano per quel che sappiamo non funziona così. Non solo è capace di elaborare una miriade di input diversi, ma sembra avere anche dei concetti.
Esempio: ad un modello per di computer vision devi non solo dare 10 mila immagini di sedie se vuoi che riconosca una sedia, ma devi anche dargliene tante con diverse angolature.
Se io faccio vedere una sedia ad una persona, la riconoscerà anche a diverse angolature.
Se gli cambio colore, idem.
Se faccio vedere ad una persona un oggetto mai visto, gli faccio chiudere gli occhi e poi gli do lo stesso oggetto, ma 5 volte più piccolo, con il tatto riconoscerà lo stesso oggetto.
Se metto l'oggetto in bilico su un tavolo, saprà che cadrà.
Se metto faccio cadere l'oggetto da 100km di altezza lanciandolo a 9000 kmh, sa che si brucerà.

Noi riusciamo a fare ragionamenti da un set di "regole di base" di come funziona il mondo, abbiamo una "semantica" per ognuna di queste regole, ed anche se non abbiamo mai visto interagire tra di loro "oggetti" diversi, sappiamo come saranno le interazioni tra loro. Alle persone non serve insegnare nulla, ad un ragazzo particolarmente portato per il calcio, ma che non ci ha mai giocato in vita sua e nemmeno ha visto qualcuno giocarci, potrei dire a voce (nota bene, a voce) le regole del gioco, e lui 5 minuti dopo fare gol.

I modelli attuali non hanno assolutamente nulla di tutto questo, tant'è che l'unico modo per fargli avere buone prestazioni è addestrarli per un'infinità di tempo, con un'infinità di esempi, su numeri infiniti di parametri, a fare una cosa per volta, tra l'altro.

Slartibartfast

Come efficienza certamente, le architetture attuali sono incredibilmente inefficienti, in un certo senso. Ma del resto per come vengono create sono costrette a immagazzinare un'infinità di informazioni "inutili", che non troverai mai in quelle quantità in nessun cervello. Manca ancora totalmente la comprensione (nostra) per creare modelli con l'intelligenza di GPT4 senza usare terabyte o più di dati.

> entrambi operano per imitazione di qualcosa che già esiste
L'espressione statistical parrot non mi piace proprio perché passa l'idea che un cervello umano sia in grado di "creare" in modo fondamentalmente differente da quello di un qualsiasi animale o persino un'AI. E' abbastanza arrogante e non ha veri fondamenti scientifici pensare che le idee che produciamo non siano semplicemente derivazioni, manipolazioni e mix di informazioni che arrivano dall'esterno oppure da memorie (quindi sempre provenienti dall'esterno). Un pappagallo lo fa in modo molto molto limitato, e tende a ripetere le stesse cose. Un qualsiasi GPT lo fa molto meglio, e un essere umano adulto lo fa ancora meglio (per ora). Ma è uno spettro continuo, se parliamo di comprensione, creazione, espressione di concetti/idee.

biggggggggggggg

Invece è proprio quello che fa, GPT ha già visto centinaia di migliaia o milioni di quei problemi o problemi simili, gli è stato insegnato a ricreare la sequenza di output corretta per la soluzione di quei problemi, e quando tu gli hai chiesto di fare qualcosa per te, lui ti ha fornito l'output.
Non ha capito nulla perchè non c'è "l'unità di comprensione centrale" in GPT, non c'è "l'unità di ragionamento centrale" ci sono solo una quantità allucinante di pesi (numeri) che vengono aggiornati in base a quanto sbaglia il modello.
Se gli danno in input "quanto fa 2+2?" e l'output deve essere "2+2 porta 4", e GPT dà in output "oggi è una bella giornata", si calcola l'errore, tramite un algoritmo che si chiama backpropagation i pesi di cui ho scritto prima vengono cambiati, e si riprova.
Adesso ti risponde "ciao come stai". Quindi li riaggiorna.
Ora risponde "2 + 2", e li riaggiorna.
Se dopo un po' producesse l'output "2+2 = 4", comunque per il modello sarebbe un errore, molto più piccolo degli altri casi ma comunque un errore, perchè GPT è un modello che lavora su testi, quindi "2+2 porta 4" per lui è una semplice stringa di testo, non diversa da "domani piove", e quindi avresti comunque un errore (molto più piccole rispetto agli altri esempi), perchè lui deve dare in output "2+2 porta 4" e non "2+2 = 4".

Questo processo viene fatto per centinaia di miliardi di volte su testi di tutti i tipi, e ovviamente verrà fuori un modello fenomenale che stupisce chiunque. Ma non c'è alcun ragionamento dietro

Ho allenato diversi modelli del genere (molto più piccoli, ovviamente), non c'è alcun ragionamento dietro. Prova ne è il fatto che anche GPT-4, che è il top del top, a volte fallisce task facilissimi nonostante spesso riesca in compiti incredibili, perchè evidentemente non è stato addestrato con sufficienti dati nel task facilissimo mentre in un altro molto complicato ha visto milioni di esempi.

GeneralZod

Il fatto che il tuo cervello funzioni in modo elettro-chimico e solo un "dettaglio HW". Anche la nostra conoscenza è basata su addestramento e riformuliamo i concetti appresi a scuola o nella vita.
Anche noi inconsciamente attribuiamo dei punteggi a delle informazioni. Alcuni di noi ad esempio non sono in grado di riconoscere le fake news o capire un testo letto. Ovvero di attribuire il giusto peso all'informazione.
Per la vera consapevolezza di questi algoritmi c'è solo da aspettare. E se usati per sviluppare loro stessi, ciò non dovrebbe avvenire troppo in là nel tempo.
Aggiungo che ChatGPT o modelli simili, non si limitano a prendere testi a caso, ma anche a risolvere problemi e spiegare le soluzioni. Ciò richiede ben più di un collage di informazioni. Richiede intelligenza.

biggggggggggggg

Infatti non era un paragone delle "capacità intellettive" (termine scorretto) tra un pappagallo e GPT, ma per il modo in cui uno li può vedere, entrambi operano per imitazione di qualcosa che già esiste.
Il fatto che GPT riesca a risolvere qualche problema matematico scolastico dimostra solo che la quantità di parametri e di dati del modello gli ha permesso di attivare i neuroni giusti per creare una sequenza di caratteri corretta. Infatti (a parità di architettura) la correlazione tra capacità del modello e numero di parametri e/o grandezza del training set è praticamente perfetta.

Anzi, facendo un paragone un po' forzato, direi che il cervello di un pappagallo è una macchina decisamente migliore di gpt se la vediamo dal punto di vista dell'efficienza, perchè gli permette di fare tutte le cose che gli servono per vivere (e che gpt non può fare, tipo vedere, esclusi alcuni modelli multi-modali), e lo fa con un dataset infinitamente più piccolo e con un cervello che consuma 6 ordini di grandezza in meno di energia (pochissimi watt vs svariati megawatt).

GeneralZod

Non sono d'accordo. Anche io a scuola studiavo e riformulavo quello che avevo letto o visto o sperimentato. I miei sensori sono stati occhi ed orecchie. Ho sottoposto dei problemi a Chat GPT, e li ha risolti. Quindi non ha messo insieme dei testi. Ha capito quello che gli ho chiesto, mi ha formulato la soluzione e riportato i passaggi. Quindi no, non è un pappagallo. Ed un pappagallo non avrebbe prodotto tanto clamore.

ErCipolla

Quello che sto dicendo è che i cialtroni convinti che le IA siano senzienti e provino sentimenti non sono le persone adatte a decidere che limiti imporre e in qual misura. Sarebbe come far decidere le norme sanitarie di un moderno ospedale da uno che crede ai salassi con le sanguisughe...

BATTLEFIELD

fin tanto che non educhi qualche miliardo di persone a riconoscere un chatbot non puoi far altro che limitare il chatbot.

Goose

Assolutamente no, dal momento che l’emozione non è quantificabile. Cosa è “bello” per una rete neurale che legge solo numeri? Se sei tu a dire alla rete che un determinato range di valori in output ha il significato di bello, beh li non è la rete neurale a definire bello ma il programmatore. Una rete neurale senza essere “guidata” non potrà mai definire il concetto di emozione.

ErCipolla

Eh appunto, ma allora a maggior ragione ritengo importante che la distinzione sia compresa dal pubblico generalista e non solo agli addetti ai lavori. Altrimenti si parte col piede sbagliato ed eventuali decisioni normative/legislative sarebbero costruite su premesse errate

Slartibartfast

Anche se sono d'accordo in generale, la metafora del pappagallo la trovo incredibilmente fastidiosa e scorretta. Questi modelli sono perfettamente in grado di "comprendere" concetti e legami logici di vario tipo, in un modo che ben pochi animali sono in grado di fare. Non c'è coscienza, ma ci sono abilità non da poco che emergono a suon di training.

E imho è un processo molto molto simile a quello che eseguiamo anche noi esseri umani, ogni volta che prendiamo decisioni complesse senza nemmeno rendercene conto, perché tanto abbiamo molta esperienza e il cervello si fida ad usare solo il "sistema 1".

BATTLEFIELD

Il problema nasce dal non avere termini di paragone. Fin tanto che saremo la specie più intelligente, ci riterremo divini.

Il corpo di Cristo in CH2O

non necessariamente deve rimanere confinata in laboratorio, il punto chiave che a me basta è che l'uomo impari a smentirsi sulla visione "mistica" dell'uomo stesso. tanto guarda, sembra di vivere i discorsi che si facevano 100 anni fa dopo il dirompente sviluppo delle "scienze sociali", che per carità ancora oggi sono cialtronerie di stampo simil-religioso per il 90%, ma un 10% è stato in grado di definire piuttosto bene il valor medio della società. e proprio come all'epoca, al posto di criticarlo, si è scelto di boicottarlo.

ed eccoci qui, 100 anni dopo, a vivere in una società dove quel valor medio ne è diventato il dittatore.

BATTLEFIELD

ogni espressione umana è una computazione, emozioni incluse. Anche le azioni vegetative che non interessano il sistema nervoso centrale sono computazioni, tutto lo è...(anche l'Anima dal mio punto di vista)

Emporio

No, e' solo la sequenza di parole piu' probabile per rispondere alla tua domanda

BATTLEFIELD

assolutamente no, ma se discuti con un chatbot che ti risponde come un essere umano magari lo pensi

Emporio

Raga evitiamo fantasie alla terminator pls. Il fatto che la chiamino intelligenza o rete neurale e' per certi versi fuorviante rispetto all'immaginario di hollywood

ErCipolla

Concordo, ma appunto per questo penso che il primo step in quella direzione sia far capire (ai non addetti ai lavori) che cosa sono effettivamente questi strumenti e come "ragionano" e con quali limiti. Se si parte da principi errati (per ignoranza o eccesso di zelo o cautela) il risultato sarà per forza disastroso a mio avviso.

ErCipolla
Però fondamentalmente non è molto dissimile da come funziona il nostro cervello

In realtà no, è un meccanismo piuttosto differente. Noi "funzioniamo" tramite principi elettrochimici dove l'insieme di meccanismi intrinsechi (genetici) e input esterni generano la produzione o meno di un insieme molto variegato e complesso di neurotrasmettitori chimici che a loro volta generano impulsi elettrici che attuano una reazione, ecc. E' un meccanismo assolutamente "non digitale", nel senso che nulla è 1 o 0 nel nostro cervello, ma dipende piuttosto dal bilanciamento elettrochimico del nostro organismo. E' il motivo per cui siamo così "complicati" e per cui le nostre reazioni ad un input non sono mai dettate esclusivamente dalla logica matematica, ma spesso sono influenzati dall'umore, dall'emotività, ecc. che a loro volta possono essere influenzati da cose all'apparenza totalmente slegate come il meteo o quanto abbiamo dormito la sera prima.

Di contro, i modelli di IA generativa funzionano in maniera totalmente diversa, sono modelli probabilistici che essenzialmente prendono ogni parola della frase di input e analizzano un grafo di probabilità (basato sull'input di addestramento) per tirare fuori le parole che più di frequente sono associate a quella parola, ripetendo poi il processo ricorsivamente finché non ottengono una frase in uscita che massimizza questi percorsi probabilistici. E' un modo di pensare totalmente "alieno" per noi, non è il modo in cui ragioniamo e soprattutto non è "intelligenza", nel senso che non c'è consapevolezza di se e dell'azione che si sta compiendo o delle sue conseguenze, è solo il risultato di un'operazione aritmetico-statistica priva di "intenzione".

Giulk since 71' Reload

Concordo, il problema dell'etica delle AI comunque esiste e va regolamentato

ErCipolla

Se fai fare 2+2 ad una calcolatrice ed ad una persona entrambe ti rispondono 4... vuol dire forse che la calcolatrice è una persona?

Il corpo di Cristo in CH2O

esatto, è per questo che non hanno senso quelle lamentele oggi. ma la mia provocazione è in relazione al fatto che, anche fosse possibile, non ne sarebbe inventivata la ricerca. e con la mia risposta di partenza propongo proprio questo punto, ovvero che non abbia senso su tutta la lina, non solo applicato allo specifico caso di chatgpt. altrimenti non avrei citato lo human brain project nel post sopra.

e ho il sospetto che a Goose questo punto non fosse chiaro. perchè lui ha risposto tirando in ballo meccanismi di neurostimolazione, ormoni, input "continui". ma questa roba qui è sempre computazione. vado a memoria ma un semplice intel loihi ha 25 diversi modi di funzionamento dei neuroni interni. e di sensori che ritornano informazioni esattamente come l'occhio o l'orecchio umano, sottoforma di spike, ne esistono dal 1990. a questo punto, dire che l'emozione è qualcosa che esula dalla computazione (qualunque essa sia) è una idiozia.

Android

Recensione Samsung Galaxy Tab S9 Ultra 5G: un ulteriore passo in avanti! | VIDEO

Apple

iPhone 15 Pro Max vs 14 Pro Max: tutte le differenze e le nostre impressioni | VIDEO

HDMotori.it

Fiat 600e, ecco come va il nuovo B-SUV elettrico | Video

Tecnologia

Recensione Ecovacs Deebot X2 Omni: si fa quadrato ma pulisce a tutto tondo | VIDEO