Deep Fusion disponibile con la prima beta dev. di iOS 13.2: ecco come funziona

02 Ottobre 2019 115

Aggiornamento

Oggi Apple ha rilasciato la prima versione beta per sviluppatori di iOS/iPadOS 13.2. La nuova beta è la prima a includere la nuova tecnologia della fotocamera Deep Fusion di Apple su iPhone 11 e iPhone 11 Pro. Al momento non sono note altre novità, ma per ulteriori dettagli sulla modalità Deep Fusion vi consigliamo di leggere la notizia originale a seguire.

Il rilascio della prima beta sviluppatore di iOS 13.2 arriva dopo il rilascio di due aggiornamenti bug fix con oggetto iOS 13.1 da parte di Apple. Nel caso emergano novità importanti ne riparleremo nelle prossime ore.

Articolo Originale

Apple si appresta a portare la modalità Deep Fusion su iPhone 11, 11 Pro (Recensione) e Pro Max (Recensione | Live Batteria in corso) attraverso una delle prossime beta di iOS 13, più precisamente quella di iOS 13.2.

La notizia arriva dopo che diverse testate statunitensi hanno avuto modo di partecipare ad un briefing con Apple, durante il quale si è entrati maggiormente nel dettaglio del funzionamento di Deep Fusion e dei suoi requisiti. Cominciamo da quest'ultimo punto; Deep Fusion fa pesante uso del Neural Engine e delle funzionalità di Apple A13 Bionic, quindi non sarà disponibile su dispositivi precedenti a quelli della famiglia iPhone 11.

Come per tutte le altre modalità introdotte recentemente da Apple, tra cui citiamo la nuova modalità notte e Smart HDR, anche Deep Fusion si attiverà automaticamente ogni qualvolta verranno rilevate le condizioni ideali per il suo funzionamento. Apple, infatti, evidenzia di voler evitare che l'utente si preoccupi di "quale modalità scegliere per scattare la miglior foto", lasciando che sia il software ad applicare i migliori algoritmi in base al contesto.

Stando a quanto riportato, Deep Fusion entrerà automaticamente in funzione quando le condizioni di illuminazione ambientale non sono ottimali, ma non al punto da richiedere l'attivazione della modalità notte. Per tutti gli scenari più luminosi, invece, si continuerà ad adottare Smart HDR. Ciò è valido in riferimento alla fotocamera principale, mentre pare che l'ottica tele farà molto più affidamento su Deep Fusion (attivandolo quasi sempre, probabilmente per via dell'apertura ridotta), e non verrà mai applicato all'ottica ultra grandangolare. Segnaliamo che questa modalità non verrà segnalata in alcun modo nel viewfinder e non sarà riportata neanche nei dati EXIF della foto.

Primo esempio di scatto realizzato con Deep Fusion

Ma come funziona esattamente Deep Fusion? Sappiamo già che il sistema acquisisce 9 frame a diversa esposizione, ma ora emerge qualche dettaglio in più. Di questi 9, 8 vengono catturati prima dello scatto, 4 rapidi con un'esposizione di valore negativo, 4 standard con esposizione 0. Resta poi il nono scatto, catturato con un tempo più lungo e esposizione superiore a 0, in modo da ottenere maggiori dettagli.

Una volta ottenuti questi frame, l'algoritmo di Deep Fusion sceglie i 3 scatti standard migliori e li fonde con quello realizzato con tempi più lunghi per creare quello che viene chiamato "frame synthetic long". Una volta generato questo "frame artificiale", viene selezionato il migliore tra i 4 catturati a bassa esposizione e si procede all'elaborazione dei 2 candidati a comporre l'immagine finale.

Durante questa fase viene effettuata l'analisi pixel per pixel di ogni immagine con lo scopo di aumentare i dettagli e di creare delle regole che guideranno la fase di fusione. Attraverso questa raccolta di informazioni, infatti, l'ultimo algoritmo saprà da dove pescare i dati relativi al colore, alle tonalità della pelle, ai dettagli dei tessuti, alla luminosità e così via. Il risultato finale è un'immagine completamente elaborata, che richiede sino ad 1 secondo per poter essere processata correttamente. Si tratta quindi di un algoritmo che lavora in maniera molto diversa rispetto a Smart HDR.

Ovviamente non è possibile utilizzare Deep Fusion con gli scatti a raffica, ma questi sono già stati messi in secondo piano grazie alla modifica della scorciatoia per la registrazione rapida dei video.

Altro esempio di scatto realizzato con Deep Fusion

Da quello che ci è parso di capire, Deep Fusion va a completare il set di algoritmi ML della fotocamera di iPhone, che potrà utilizzarne uno per ogni occasione nel momento in cui verrà reso disponibile; ora diventa sempre più difficile - se non impossibile - trovare uno scenario in cui non verrà applicato il Machine Learning alle foto generate da iPhone. Attendiamo di provare Deep Fusion non appena verrà rilasciata la beta sviluppatori di iOS 13.2; purtroppo non sono state comunicate tempistiche in merito.

VIDEO

Più notizie
Più notizie
Più notizie
(aggiornamento del 24 marzo 2023, ore 06:30)

115

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Andre Sergio Da Rio

Che bello, in mancanza di argomenti si passa all'insulto. Complimenti

Castiel

Ah ma allora sei solo ritardato forte.

Mi dici gentilmente dove ho detto che questi sistemi sono miracolosi? Mi basta anche solo dove dico che sono semplicemente buoni.

Grazie e buon ritardo

Ph0t0

Nell'articolo c'è scritto che riconoscere il colore della pelle, i colori della scena, etc. Un software non deve riconoscere i colori della pelle, perchè variare la tonalità di pelle, presuppone il fatto che il tuo colore non vada bene. Il profilo colore caratterizza l'immagine, e da i colori CORRETTI.
Se poi via AI sostituisce i colori della pelle perchè li riconosce come tali, sta modificando in automatico qualcosa che io non ho ho detto di fare. Perchè se la mai tonalità a me piace, lui non si deve permette di modificarla, cosa che nell'articolo, a quanto scrivono, invece fa. In quanto c'è espressamente detto che riconosce i colori della pelle etc. Il colore è colore, non conta il DOVE. E' colore qualsiasi cosa, non ha senso scrivere che sia della pelle, o il dettaglio di un maglione.

Andre Sergio Da Rio

ripeto, fai ridere.
parlare di fotografia come se fossero miracolose queste tecnologie con sensori grandi come uno spillo, tecnologie che 10 anni fa erano molto bene implementate.
vedi la tecnologia pureview di nokia, oppure le novità di light...

Castiel

Non ho dubbi che sapere di cosa si parla ti faccia ridere.

Alessandro Peter
Mongomeri

Lasciando perdere quello che c'è scritto nell'articolo, le modalità di "generazione" delle foto, grazie alla maggior potenza a disposizione, si sono fatte un po' più furbe e non applicano più il medesimo filtro a tutta la scena: Apple (ma altri hanno sistemi simili) adotta un sistema che definisce "semantic rendering": dato che l'AI è stata istruita per riconoscere il contenuto delle foto (e puoi provare sia su Google Foto che su Foto di Apple), andrà ad applicare filtri diversi a diverse parti della foto: ad esempio andrà ad aumentare i dettagli di un volto e a diminuire quelli del cielo, altrimenti fotografando un bel cielo azzurro lo troveresti ricco di artefatti.

Giovanni Monti

Comunque l’ultra Wide da 13mm registra tranquillamente fino a 4K 60fps... quello che non avviene è lo switch tra i tre sensori senza soluzione di continuità.. ovvero lo switch avviene, ma si percepisce palesemente il cambio di sensore, cosa che non succede fino a 4K 30fps

Alessandro Peter

Typo mio, 13mm, quindi ancora più wide. Appunto per via del fatto che parliamo di sensori piccolissimi il mio discorso su messa a fuoco automatica ha ancora più senso.
Per il sensore come detto siamo d’accordo, ma sicuramente sono andati contro a problemi tecnici nell’implementare un sensore più prestante.

Mr. Robot

Per semplificare è come l'HDR+ sulla google Camera. Puoi lasciarlo attivato oppure in automatico (se non disattivarlo del tutto). Non capisco dove sia lo scoglio

Chirurgo Plastico

Mi sono sempre chiesto perché alcune funzioni su iOS siano possibili con app di terze parti e non con il sistema operativo stesso: foto Raw, controlli manuali della fotocamera, registrare contemporaneamente da fotocamera frontale/principale, download di tutti i file, etc.
Alla fine ci sono arrivato: Apple trattiene il 30% dal prezzo dell’app. Dalla vendita di questi applicativi guadagna un bel po’ di milioni.

Sarebbe come mettere degli acquisti in-iOS. Vuoi scaricare auesto file da YouTube? 1.29€
Sblocca comandi manuali nella fotocamera! Solo 2.29€!
Veramente furbi. Ditemi se sbaglio.

Vittorio Antonicelli

attenzione, tu fai riferimento al classico fotografo che seleziona ottiche, iso, tempi di esposizione ecc...
qui si parla di un algoritmo di intelligenza artificiale in cui l'iphone aggiusta le foto in base a cosa vi trova dentro. E' una cosa completamente diversa e molto piu complessa che viene fatta internamente in modo trasparente all'utente

Mr. Robot

Ma te sei uno di quelli di Bibbiano?

Mr. Robot

Apple, infatti, evidenzia di voler evitare che l'utente si preoccupi di "quale modalità scegliere per scattare la miglior foto"

Io ste cose non le capirò mai. Non è possibile mettere un selettore per far scegliere all'utente un pelo più esperto quando usarlo? Tenendo comunque di base una modalità auto?

Blasco73

Ti sbagli.... e ripeto: è un gran dispositivo.
Sai cosa? Sono un po’ incastrato nell’ecosistema: password su icloud, Autenticazione a due fattori, Apple Watch.....
Però sto cercando di resistere!

Andre Sergio Da Rio

fai ridere assai

JJ

Fortunatamente ci sono utenti che riescono a spiegare quello che dovrebbe fare il sito di tecnologia più importante d'Italia. Mi sembra assurdo che non conoscano le basi minime della fotografia.
Grazie per il chiarimento!

fabrynet

Prima di tutto è una 13mm equivalente e non 18mm.
In secondo luogo il tuo ragionamento è giusto sulle fotocamere tradizionali APSC o Full Frame.
Qui stiamo parlando di sensori piccolissimi e sistemi che cercano di superare i limiti fisici con le elaborazioni software. In questo contesto l’ultrawide di 11 Pro risulta molto inferiore alle altre sue fotocamere da 26 e 52mm.
Peccato, altrimenti il sistema delle tre fotocamere proposto da Apple sarebbe stato perfetto.

AntonioSM77

Vedremo...

fausto madrepavia

Quella non fornisce abbastanza elementi da spiegarlo. Oppure nemmeno tu sai di cosa stai parlando?

Hagenauwa

Lo noti se nelle zone d'ombra è presente meno rumore senza che ci sia l'orrendo effetto acquerello dato dalla riduzione rumore troppo aggressiva che usa di solito ios.... Presumo

Castiel

È letteralmente scritto nel post sopra al mio.

Ma siete tutti ritardati qui dentro?

fausto madrepavia

Non ho capito. Il dual pixel è una tecnologia per l'autofocus, in che modo dovrebbe ostacolare una modalità notte?

Alessandro Peter

Parlando di fotografia in generale;
Non esiste al mondo un 18mm con stabilizzazione ottica, semplicemente perché sarebbe inutile, così come l’autofocus su un sensore così piccolo. Il perché è facile da capire; come più ti spingi verso il tele, più le immagini saranno mosse e la profondità ridotta. Andando verso il grandangolo si ha l’effetto opposto; Pertanto rimane tutto a fuoco da un cm all’infinito, e le vibrazioni vengono ampiamente assorbite dall’angolo visivo molto ampio che non ne fa notare l’esistenza. La lente a f2.4 è già un gran risultato, anche solo uno stop più veloce avrebbe comportato il doppio del vetro.
Sul sensore però si poteva magari di più, ma come primo passo devo ammettere che han fatto un ottimo lavoro.

Alex Dimax

tesò sinceramente, penso che sto deep fusion sia solo un bracketing a 9 fotogrammi... lo vogliono spacciare come rivoluzione, ma in realtà è un semplice bracketing istantaneo, che grazie all' a13, verrà fatto in un secondo

Hagenauwa

Esci dall'interfaccia fotografica, premi l'ingranaggio in alto a destra per le impostazioni, in fondo Anteprime Tecnologia, esposizione lunga, a seconda del dispositivo potrebbe anche non esserci, io ho 7 plus

ghost

La cosa più fantastica di questa funzione è il nome

Castiel

Se non sei ritardato si.

Visto che è lo stesso sistema dual pixel usato da Canon sui suoi sensori (e dove nello stesso modo non è possibile usarlo su fotocamere con sensori non dual pixel).

Cosa che ogni fotografo ti può confermare.

Ma ei siamo su hdblog, ci mancherebbe che qualcuno sapesse qualcosa

AllBlack

Sto valutando se installare o m,enoi questa beta di iOS 13.2 sul mio 11 Pro, comunque le altre novità sono:
- Announce Messages with Siri per AirPods
- Handoff setting per HomePod (ancora non funziona)
- Automatically AirPlay to TVs (in impostazioni)
Inoltre hanno trovato tracce di "AirPods with noise canceling" in questa versione beta

Desmond Hume

Sono ancora in corso le contrattazioni, in Apple hanno le braccine corte e quelli di Dxomark son degli avidi markettari.

Gabriele_Congiu

Siamo arrivati in un’altra fase; ora CPU e GPU hanno potenza da vendere e pesano sempre meno, tutto il futuro si gioca sugli sviluppi delle NPU. Sotto questo aspetto è come essere tornati ai tempi delle prime architetture multi core

acitre

Ho cercato la funzione ma nulla. C'è solo l'hdr sperimentale... Sbaglio qualcosa?

Luca Lucani

adepto detected

Lato oscuro

Tu ti meriti l’oscar!

Bruce Wayne

Perchè ancora nessuno fuori da Cupertino l'ha provato. Aspetta che esce.

Andrea Manis
delpinsky

Voglio vedere i file a piena risoluzione. Se vuoi giudicare uno scatto al meglio lo devi zoomare per renderti conto della qualità. Comunque sembrano molto bioni a bassa risoluzione.

Jugin M Erda

L’unica novità che hanno la portano pure a quelli vecchi? E poi?

LastSnake

Google ci è arrivata prima, con un Op7 pro o un S10 Snapdragon con gcam installata ottenevo risultati simili se non migliori grazie ad HDR+ avanzato, ma aspetterò che venga rilasciato questo Deep Fusion per giudicare. Ho preso iPhone 11 anche per questo, che intanto posso confermare faccia foto al top assoluto anche la sera questa volta.

Chiaramente questa tecnologia ha il limite intrinseco legato ai tempi di scatto.
Però non è male. Sarà un super hdr

Maverick

Mai analosi fu più concisa e corretta!

darthrevanri

il livello medio della gente qui è talmente basso che non capiscono neanche l'ironia

Deku

sinceramente non me ne frega niente se arriva o meno nei modelli precedenti :) vivo bene con un 3aXL ;)
in ogni caso trovo lo staff di DDAY molto preparato e competente nei vari approfondimenti e confronti che fanno.. tutto qua

Davide Coppeta

commento più stupido non si poteva leggere. il mio iphone pro mi delude con selfie con poca luce. Troppo rumore. Punto.

Gabriele

peccato davvero

Andre Sergio Da Rio

si e tu l'hai bevuta?

Andre Sergio Da Rio

fake nessuno iphonaro scrive commenti divertenti

Davide

Io si, il tuo galaxy ti inquadra almeno?

Ivan Clemente Cabrera

Semplice, non lo valuti e attendi che venga rilasciato su tutti i dispositivi, e' solo un rumor su una funzione che forse verra' rilasciata su iOS 13.2

Piddì

Non è la prima volta.

Android

Nokia G22 vs Fairphone 4: smartphone sostenibili e riparabili con tante differenze

Tecnologia

Bing Image Creator: ora basta chiedere per generare un'immagine qualsiasi

HDMotori.it

Recensione 70Mai Omni: la Dash Cam a 360° con ADAS ci è piaciuta! | Video

Articolo

Paramount+, tutti i film e le serie TV in arrivo ad aprile 2023