
07 Dicembre 2022
Si chiama DALL-E e a leggere il nome ad alta voce viene fuori un'assonanza con quello di una colonna portate dell'arte (Dalì). I suoi creatori vogliono così mettere subito le cose in chiaro sulle potenzialità di questa intelligenza artificiale votata alla creazione artistica.
DALL-E ha esordito a gennaio dello scorso anno ed ha da poco tagliato un altro traguardo con una versione aggiornata che migliora le sue capacità. È un progetto di primo piano nell'ambito della ricerca sull'intelligenza artificiale visto che a portarlo avanti è il gruppo OpenAI co-fondato nel 2015 da Elon Musk ed altri big della Silicon Valley e finanziato da Microsoft.
Va preliminarmente ricordato che la peculiarità di DALL-E è la capacità di creare un'immagine partendo da una descrizione fornita dall'utente. Per esempio, l'immagina riportata di seguito è il risultato di un comando impartito a DALL-E per realizzare un'immagine contenente orsacchiotti che mescolano sostanze chimiche scintillanti come scienziati pazzi. Non si può dire che l'IA non abbia preso alla lettera le indicazioni:
I passi avanti rispetto alla prima generazione sono sostanzialmente tre: l'IA ora è in grado di generare immagini con una risoluzione più elevata, può produrre l'opera con una latenza inferiore ed ha acquisito l'abilità di modificare immagini esistenti. Per quanto riguarda la risoluzione si passa dalle immagini in formato quadrato da 256 pixel alle nuove immagini (sempre quadrate) da 1024 pixel. Le funzioni di modifica delle immagini invece consentono di impartire all'IA comandi per:
Alla base di DALL-E c'è il sistema di riconoscimento delle immagini CLIP che è stato addestrato dai ricercatori per analizzarle e sintetizzarne i contenuti come farebbe un essere umano. OpenAI ha poi utilizzato questo processo in senso inverso: una versione che parte dalla descrizione e genera l'immagine.
Per aspetti ancora più tecnici si può consultare la documentazione ufficiale tramite il link in FONTE, ma un aspetto va subito sottolineato: si ricorderà che l'obiettivo ultimo di OpenAI è far avanzare la ricerca sull'intelligenza artificiale improntandola al rispetto di principi etici e sempre con il limite di non arrecare danni agli esseri umani. Un'intelligenza artificiale che produce immagini partendo da una semplice frase potrebbe diventare un potente strumento al servizio della disinformazione e della diffamazione.
Per evitare questi scenari è necessario addestrare opportunamente l'IA escludendo dalle sue fonti di conoscenza (i database di immagini che vengono usati per istruirla) immagini offensive e introducendo il limite alla creazione di immagini partendo dal nome di un personaggio più o meno noto. Per identificare le immagini di DALL-E come prodotte da un'IA, OpenAI ha inoltre inserito un'apposita filigrana (che però potrebbe essere facilmente ritagliata).
DALL-E non può essere ancora utilizzato da chiunque liberamente, solo utenti qualificati e registrati al progetto possono farlo anche se OpenAI punta a rendere disponibile l'IA per l'integrazione in app di terze parti. Al momento chi è interessato a DALL-E deve compilare un modulo (QUI) e mettersi in lista d'attesa.
Recensione Samsung Galaxy S23 Plus: 3 motivi per sceglierlo e 3 per non farlo
Recensione Kingston FURY Beast e Renegade RGB: le DDR5 che aspettavamo
Recensione Xiaomi 13 Lite: ha senso con i Redmi Note 12 sul mercato? | Video
Disney+, tutti i film e le serie TV in arrivo ad aprile 2023
Commenti
Magari part-time.
beh però ammetterai che è quello che facciamo tutti noi! :D
"Cercasi guardia notturna", se sei interessato!
Veramente interessante, per chi non si è mai avvicinato alle immagini generate con l'AI consiglio di provare il notebook su Colab di DiscoDiffusion v5 (fate immagini massimo 896x896 altrimenti esaurisce la VRAM) oppure GauGAN 2 di NVIDIA
immagino che le immagini mostrate siano state selezionate ad hoc tra i migliori risultati, se si provasse a generare altre immagini da frasi, dubito si ottengano risultati così, se non dopo svariati tentativi.
In sostanza, impressionante, ma come sempre se mostrano qualcosa al pubblico è solo il risultato migliore tra molti difettosi
Non ci dormirò la notte.
Se davvero da quella frase sugli orsacchiotti ha generato l'immagine citata, è davvero sbalorditiva. Non so se poi si può magari modificare sempre a voce ("migliora il naso di quello di destra nell'immagine e levagli quello che sembra un dente da vampiro" oppure citando il colore delle lenti chiederne un altro) oppure chiederne sequenze leggermente modificate o utilizzare una parte del risultato per creare piccoli video o roba del genere, ma immagino ci arriveranno
Ottimo finalmente un uso utile della I.A.
https://uploads.disquscdn.c...