
Economia e mercato 13 Apr
ChatGPT ha rivoluzionato il modo in cui l'uomo interagisce con la macchina, dando il via ad una nuova era incentrata sull'intelligenza artificiale generativa. Il lavoro di OpenAI e del partner strategico Microsoft è in costante evoluzione - entro fine anno si attende la versione 5 - ma anche la community di sviluppatori è in fermento. Tanto da arrivare a creare AutoGPT, progetto dalle potenzialità enormi.
Nato dall'idea dello sviluppatore Significant Gravitas, il progetto è stato via via esteso sino a coinvolgere una numerosa comunità: ad oggi è il repository più popolare su GitHub ed è accessibile per chiunque sia interessato a provarlo.
AutoGPT è un'applicazione open source sperimentale che mostra le capacità del modello di linguaggio GPT-4. Questo programma, guidato da GPT-4, concatena insieme i "pensieri" LLM per raggiungere in modo autonomo qualsiasi obiettivo prefissato. In qualità di uno dei primi esempi di GPT-4 funzionante in modo completamente autonomo, AutoGPT spinge i confini di ciò che è possibile con l'AI.
Detta in altre parole, pensate se ChatGPT (o Bing) potesse agire da solo, in modo autonomo, senza che noi lo "alimentiamo" con messaggi di testo e domande che lo indirizzano verso la soluzione desiderata. Questa è in pratica AutoGPT, applicazione Python open-source che mediante GPT-4 è in grado di pensare ed agire da sola portando avanti il progetto passo dopo passo.
E ciò che maggiormente impressiona è la sua capacità di gestire i flussi di lavoro, eseguire in modo automatizzato progetti suddivisi in più fasi, fare ricerche sul web, scrivere testi e persino migliorare il proprio codice. É soprattutto quest'ultimo aspetto a differenziare AutoGPT da ChatGPT, ovvero l'essere capace di crescere da solo. Oltre al fatto che ChatGPT esegue un compito alla volta, mentre AutoGPT è capace di autogestire l'intero flusso di lavoro sezionandolo autonomamente in singoli sotto-obiettivi.
Massive Update for Auto-GPT: Code Execution! 🤖💻
— Significant Gravitas (@SigGravitas) April 1, 2023
Auto-GPT is now able to write it's own code using #gpt4 and execute python scripts!
This allows it to recursively debug, develop and self-improve... 🤯 👇 pic.twitter.com/GEkMb1LyxV
C'è chi definisce AutoGPT una sorta di sguardo verso il futuro, una bozza di Artificial General Intelligence (AGI) evoluzione dell'AI attuale. Pur essendo disponibile gratuitamente su GitHub (ma bisogna registrarsi o fornire la propria chiave API OpenAI) può risultare non facilmente accessibile per tutti: a disposizione c'è allora Godmode, strumento generato da AutoGPT disponibile da browser web.
Credits immagine d'apertura: Pixabay
Ferrari, per le strade della Sardegna guidando una Roma Spider
Recensione Xiaomi 13T Pro: completo ed al giusto prezzo di lancio | VIDEO
macOS 14 Sonoma e Windows 11 23H2 disponibili al download
Xiaomi 13T e 13T Pro ufficiali. Arrivano anche Watch 2 Pro e Smart Band 8 | Prezzi
Commenti
Macché riposarsi... lavoro doppio!!!
Rocco Siffredi
Ti rispondo qui, clown, perchè quelli di DHblog hanno bloccato i commenti:
Art. 4 - Gazzetta ufficiale
"Disposizioni urgenti in materia di prevenzione del contagio da SARS-CoV-2 mediante previsione di obblighi vaccinali per gli esercenti le professioni sanitarie e gli operatori di interesse
sanitario."
Come puoi constatare, anche se dubito della tua capacità di comprensione del testo, l'obbligo per i sanitari è stato imposto sulla base della PREVENZIONE DEL CONTAGIO.
Balla enorme che verrà poi smentita, furbescamente, da Pfizer che, a fine "pandemia di raffreddore", confermerà che "nessuno ha mai detto che il nostro vaccino prevenisse il contagio". Un pò come quando sospendevano i medici che curavano la gente dal covid per poi asserire che gli antinfiammatori, nel 90% dei casi, avrebbero aiutato tranquillamente a superare il malanno.
PREVENZIONE DAL CONTAGIO che ha proprio favorito l'entrata in vigore del velato obbligo vaccinale chiamato "GreenPass".
Una Democrazia che, su dati manipolati ed inventati rende incostituzionalmente impossibile la vita ai propri cittadini e, con false scuse, impone l'obbligo vaccinale a diverse categorie in nome di una prevenzione al contagio MAI dimostrata.
Il foglietto che ti sei firmato, senza prescrizione del medico OBBLIGATORIA ma NON rischiesta, è figlio di un provvedimento che prevede la "LOTTA AL CONTAGIO" non alla malattia grave. Pagliaccio che non sei altro; smettila di autoprescriverti i vaccini: BANDITO!
Ti rispondo qui, clown, perchè quelli di DHblog hanno bloccato i commenti:
Art. 4 - Gazzetta ufficiale
"Disposizioni urgenti in materia di prevenzione del contagio da SARS-CoV-2 mediante previsione di obblighi vaccinali per gli esercenti le professioni sanitarie e gli operatori di interesse
sanitario."
Come puoi constatare, anche se dubito della tua capacità di comprensione del testo, l'obbligo per i sanitari è stato imposto sulla base della PREVENZIONE DEL CONTAGIO.
Balla enorme che verrà poi smentita, furbescamente, da Pfizer che, a fine "pandemia di raffreddore", confermerà che "nessuno ha mai detto che il nostro vaccino prevenisse il contagio". Un pò come quando sospendevano i medici che curavano la gente dal covid per poi asserire che gli antinfiammatori, nel 90% dei casi, avrebbero aiutato tranquillamente a superare il malanno.
PREVENZIONE DAL CONTAGIO che ha proprio favorito l'entrata in vigore del velato obbligo vaccinale chiamato "GreenPass".
Una Democrazia che, su dati manipolati ed inventati rende incostituzionalmente impossibile la vita ai propri cittadini e, con false scuse, impone l'obbligo vaccinale a diverse categorie in nome di una prevenzione al contagio MAI dimostrata.
Il foglietto che ti sei firmato, senza prescrizione del medico OBBLIGATORIA ma NON rischiesta, è figlio di un provvedimento che prevede la "LOTTA AL CONTAGIO" non alla malattia grave. Pagliaccio che non sei altro; smettila di autoprescriverti i vaccini: BANDITO!
Cosi finalmente la tua Federica si riposa
C'era (o c'è ancora).
Manca una variante pornoGPT e poi lo utilizzeranno tutti. imho.
Risposta in topic: chiedi alla chat di Bing, una risposta te la da di sicuro!
Si, seduti nel bagno, perché sarà l'unico posto dove potremo star seduti comodi a creare qualcosa (col lavoro perso). E le nostre non saranno creazioni chissà che creative, ma profumate di sicuro!
Nu bello bonus anche per questo
Cerca ChaosGPT su twitter :)
Qualcuno ci ha provato, ha messo su un sito per rivendere vestiti
wargames!
Ha molte meno funzioni di quella ufficiale altrimenti la userei
E = mc2
Con il browser opera in versione beta il vpn funziona
hai appena confermato di non aver mai utilizzato chatgpt
secondo me è un po' tanto
Penso che ci sia una gestione intelligente del tipo: se mi fai una domanda inerente a quella precedente faccio riferimento allo stesso argomento (magari dando più peso ai token di quell’argomento), altrimenti se le probabilità dei token in input sono più basse nel contesto dell’argomento della domanda precedente allora lo tratta come un nuovo argomento.
Per me bisognerebbe farne un solo uso: al posto di avvocati e giudici.
Mi ha rotto veder salva/imprigionata gente per cavilli burocratici.
Signori in piedi, e' online la corte.
cos'era... 1980? boh non ricordo
allora mi sono messo a dare una occhiata a quel paper e ho capito che intendi, ho letto male il primo messaggio. comunque non c'entra con il problema tipico delle RNN. il problema semmai è sulla finestra come hai evidenziato in questo messaggio.
quello che invece ho cercato io (che non c'entrava niente messo in risposta alla prima domanda) era una misura di "stabilità" (chiamiamola così) dei parametri interni a fronte dell'inserimento di più "interazioni" (diverse finestre di token, a prescindere dalla lunghezza), su questo ho trovato poco. ovvero quanto viene deviato il contesto del discorso a partire dalla sequenza di interazioni. per esempio ho fatto qualche prova di persona dando degli input che si riferissero a domande precedenti es: "riprendendo quanto ti ho scritto nella prima domanda", che segua un paio di domande che portano a cambiare il contesto es: "cambiamo argomento, secondo te quali sono i migliori piatti della cucina italiana?". però non posso dire che questo paio di prove sia indicativo di alcunché.
A quanto pare non lo fa. Ora uso Windscribe con cui puoi avere fino a 2 gb gratis
Ah. Anche io uso TunnelBear. Ma in teoria una VPN non dovrebbe cambiare Indirizzo IP?
Dipende dalla VPN. Alcune tipo Tunnelbear (era successo anche a me) potrebbero non cambiarti l'IP. OpenAI blocca l'IP che era connesso al tuo account.
Dipende dalla VPN. Con TunnelBear non mi funzionava, mentre con Windscribe funziona
Il transformer segue comunque una finestra di token, non è “illimitata”.
Su Android tramite Opera è vivo e vegeto :):)
https://uploads.disquscdn.c...
Logitech MX Master 3s
Ma vi funziona chat gpt con la VPN? A me su iPhone no… quale stato avete impostato?
https://media4.giphy.com/me...
hai proprio sbagliato blog.
social warrior e complottari. stop.
Grazie al ticket
non esattamente, perchè di per se il transformer non ha elementi ricorrenti. (però ho perso un po' il giro ultimamente, butto un occhio al paper che mi hai indicato sopra).
E' stata revisionata più volte nel 2023 e le preoccupazioni sono state rese note più volte negli ultimi 2-3 mesi, con tanto di petizioni.
Tra l'altro, includono esplicitamente tutte quelle fondazioni che anche se offrono software open-source guadagnano in altro modo (tipo qualsiasi fondazione open-source).
Così com'è è pericolosa e folle, ci mancherebbe pure che decidono di approvarla così com'è ora.
E' una bozza di legge, fatta apposta per essere revisionata. Il problema è solo che lascia spazio a una dubbia interpretazione, io leggendola così direi che le fondazioni no profit sono comunque escluse visto che ricadono nell'ambito della donazione... ma è gisto comunque che siano esplicitate certe casistiche particolari
L'aiuto di cui hai bisogno costa 80/100 euro a seduta.
https:// arxiv . org/abs/2109.09115#:~:text=Language%20models%20are%20generally%20trained,context%20to%20improve%20their%20predictions.
Ti lascio un paper interessante a riguardo. Praticamente tutti i language models sono addestrati su piccole sequenze in input, i Transformers (ad esempio utilizzato da GPT3/4) utilizzano finestre di sequenze per generare il prossimo token, queste finestre scorrono lungo le sequenze ma in fin dei conti sono sempre "piccole" e limitate per via delle risorse computazionali. Ad esempio, ChatGPT riesce a creare testi lunghi perché dietro ha server con tante GPU che permettono di processare lunghe sequenze (pur sempre limitate).
Esattamente, sarebbe una follia allucinante, questo disegno di legge così com'è ora è pieno di loophole che creerebbero situazioni assurde.
Tra l'altro è proprio quello che potrebbe succedere diversamente con sviluppatori europei: ritirano il codice dall'europa e lo sviluppano e mantengono negli stati uniti, così lo svantaggio già colossale nei confronti degli americani si acuisce ancora di più, perchè useranno solo per loro, gratis, software scritto da europei.
Ripeto, livello di scrittura della legge: mio zio con la quinta elementare dopo la 7ma grappa.
Poi immagina le aziende americane che portano quello stesso software open source ritirato dall'Europa (per timore di casini legali) che, dopo 2 modifiche cosmetiche, lo bollano come sicuro e lo rivendono a noi. Sarebbe una situazione paradossale.. e assolutamente possibile purtroppo!
Forse per alcuni puo'essere utile ma a me non mi ha dato alcun aiuto, disinstallato subito
disse roby, esperto del settore
È un “problema” fattuale delle Recurrent Neural Network basate sulle time series. L’output di un token dipende da quelli precedenti, più ne generi più perdi attenzione sulla task.
Mmm.... inizia ad esserci un sovraffollamento anche in quel settore
hai provato le ultime versioni di chat gpt? le uso in supporto alla programmazione (per cose più semplici che mi annoia ripetere o apportare modifiche)... ormai dai il codice preesistente, le specifiche della modifica e lui to tira fuori una buona parte del lavoro.
certo, poi c'è da fare controllo e correzioni perché non è perfetto, ma riduce notevolmente il carico di lavoro.
sono convinto che debba essere utilizzato solo come supporto a certi lavori e tolto ai bimbi che gli chiedono di fare i compiti al loro posto.
però qualche mese fa ricordo di aver cercato qualche trattazione matematica ma di non aver trovato molto su questo fenomeno. mi sa che è ancora un problema non ben definito.
Ma infatti sarebbe un danno mostruoso a tutti, grandi e piccoli, ma i piccoli pagherebbero 10 volte di più.
Alla fine facebook potrebbe decidere di rendere pytorch closed-source e usarlo internamente o renderlo a pagamento, tipo 50 dollari al mese.
Ciò vorrebbe dire che i piccoli, i ricercatori, gli studenti, non potranno più usare uno strumento del genere, con ricadute gravissime sul processo di sviluppo (e apprendimento).
Ma volendo, anche la stessa linux foundation (che opera commercialmente) si troverebbe con le spalle al muro. Parliamo di linux eh, non dell'ultima delle librerie per js.
Io ancora non ho capito se è tutto un grande scherzo o sono seri.
Proprio il contrario. Con GPT che si occupa del 90% del lavoro gli umani si concentreranno sulla creazione nel senso più puro del termine.