
11 Ottobre 2016
Finora Microsoft ha sempre mantenuto grande riserbo su quello che è il "cuore" del suo visore HoloLens, il chip HPU. A parte l'architettura di questo coprocessore (l'acronimo sta per Holographic Processing Unit) che è stata disegnata appositamente da Microsoft stessa, non si sapeva molto altro, ma durante la conferenza Hot Chips tenutasi a Cupertino ha deciso di sbottonarsi un po' di più.
HPU è realizzato da TSMC con processo produttivo a 28 nm, e include 24 core DSP disegnati da Tensilica. A corredo abbiamo 8 MB di SRAM e 1 GB di RAM LPDDR3. In tutto il die misura 12 x 12 millimetri, e riesce a effettuare 1.000 miliardi di calcoli al secondo. Il suo compito è gestire l'input e l'output di tutti i sensori necessari alla gestione della realtà virtuale, tutto via hardware e quindi con un'efficienza molto più grande di un application processor classico. Ad ogni core DSP è assegnato un compito specifico.
Il processore "generico" (o application processor), ricordiamo, è un Intel Atom con 1 GB di RAM e 64 GB di storage. Il sistema operativo è Windows 10, con la speciale shell Windows Holographic.
Commenti
Guarda ho forti dubbi...
Più che altro i vr sono ottimi riproduttori di contenuti e isolano dall'ambiente che ti circonda...
Non è che la realtà aumentata possa sostituire quella virtuale...
Questo prodotto a livello grafico è sicuramente il primo ed innovativo ma sul lato pratico porrebbe offrire poco rispetto ad esempio i glass o prodotti simili che sono meno invasivi e più orientati sul servizio.. non so se mi son spiegato...
Questo almeno per ora... In futuro le applicazioni potrebbero essere tante con aggiunta di sensori e con una forte miniaturizzazione dell'hw
I VR di oggi sono orientati verso uno pseudo tipo di gaming. Alla fine gli unici che vanno molto sono quelli che si attaccano al PC e ci fanno andare i giochi, come Oculus Rift e HTC Vive. il resto, quello con gli smartphone è qualcosa di Videoludico soprattutto vista la scarsa potenza di calcolo degli stessi.
Gli HoloLens di MS sono molto diversi. ti permettono di visualizzare forme definite da punti luce "proiezioni olografiche" su una porzione di visuale del visore. Che poi, possano farci dei giochi o degli strumenti di lavoro per creare qualcosa, magari delle integrazioni con programmi o altro dipende ovviamente da chi sviluppa per quel prodotto. Comunque questi sono visori del futuro, diversi da quella specie di schermi che ti piazzi davanti agli occhi.
Gaming, educazione, rendering e poi?
Infatti, non è un prodotto per l'intrattenimento
Ma anche se ne costasse 100... Non è che tutti poi stanno 8ore al giorno con gli hololens adosso cliccando nell'aria girando per casa come zombie, ne potrebbe sostituire l'intrattenimento video
Trovami qualcosa di mainstream a 3000$
Perché non giochi con ne con le tue hololens... Ah già... Arrivano tardi, ma non è una novità...
Guarda da appassionato a me interessano, se ho occasione le provo, però non credere che possa diventare un mercato mainstram finché non escono i porno... È a quanto pare si parla di anni...
Dubito... Il mercato è comunque limitato ad alcuni target ristretti
Già... L'output è quello...
Va detto che viene riprodotto anche su uno schermo 2D, l'effetto finale può essere comunque realistico e il processore 'sti ologrammi effettivamente li calcola e la gente "crede di vedere ologrammi"
A parte il "trucco" è così che deve funzionare, altrimenti che Realtà aumenta sarebbe?
anche questo e' vero, puo' darsi il limite sia sulla fase di mix
Hai ovviamente ragione sul "chi te lo fa fare" di creare un terzo stream a risoluzione inferiore.
Peró è anche vero che l'hololens sulle lenti proietta solo la parte aumentata, il resto si vede attraverso gli occhi.
Nelle registrazioni invece si vedono sovrimpressi sulla realtà (sullo stream video della fotocamera rgb).
È possibile che ci sia qualche "inghippo" in questa fase :-)
L'unico modo per esserne certi sarebbe sapere la risoluzione dei proiettori :-(
ps. il documento che hai linkato spiega soltanto come superare i limiti del dispositivo che, essendo semitrasparente, non rende ovviamente molto bene con colori poco saturi e immagini non ben definite rispetto ad uno sfondo di cui non puoi sapere colore/luminosita' a priori.
Ma su questo non c'è dubbio, come è innegabile il fatto che la qualità delle registrazioni video è di gran lunga inferiore a ciò che poi si vede attraverso le lenti. Cosa sperimentata da chiunque abbia rilasciato una propria recensione su youtube e simili.
ma la tecnica usata dal "proiettore" non cambia come l'immagine viene generata dalla gpu, in pratica e' la stessa differenza che c'e' fra un display lcd ed uno a tubo catodico, il "proiettore" della lente olografica invece di mandare tutta l'immagine come fa un lcd manda scanlines singole variando la polarizzazione di tot gradi ognuna, le incisioni olografiche nelle lenti sono perfettamente trasparenti fintanto che il grado di polarizzazione non e' quello corretto ma deviano la luce a 90° quando vengono raggiunte dalla riga con la corretta polarizzazione e voila', hai un'immagine completa di fronte agli occhi come per magia senza le lenti massiccie tipo quelle dei google glasses (che sono spesse tanto quanto e' largo il display usato)
sul fronte gpu pero' rimangono normali immagini 2d, che possono anche essere usate per lo streaming.
Ovvio che non intendevo che venissero "spar4ti" nello spazio circostante degli ologrammi, ma che il fatto che la registrazione abbia una certa definizione non c'entra proprio nulla con quello che si vede in lente. Anzi.
La tecnologia usata è quella di un display additivo che aggiunge la propria luce a quella dell'ambiente già presente: maggiori punti luce -> maggiore consistenza dell'ologramma.
Doc: https://developer . microsoft . com/en-us/windows/holographic/color_design c'era anche un video che parlava proprio dei punti luce ma non riesco a trovarlo ora
e invece di una conferenza fatta dal reparto marketing io mi sono studiato i report tecnici, che sono un pelo piu' utili.
l'idea di usare il termine "ologramma" il reparto marketing l'ha avuta dalla tecnologia usata nella lente, che e' effettivamente affascinante.
in pratica la luce e' proiettata perpendicolarmente nel centro della lente e invece di usare prismi/fresnel (come fanno altre soluzioni simili) per deviare a 90° in direzione dell'occhio usa un sistema di "incisione olografica" che agisce soltanto quando il giusto grado di polarizzazione passa in quel punto della lente, a quel punto usi un dirverso grado di polarizzazione per ogni "riga" dell'immagine e quella verra' spedita all'occhio al momento giusto.
questo permette delle lenti incredibilmente sottili senza nessuna distorzione, sono una cosa fantastica.
pero' non ha niente a che vedere con le immagini olografiche, che sono tutt'altra cosa.
Nono ha ragione emer, è una cosa alquanto complicata e penso che si fosse vista solo in via sperimentale fin'ora
ahah o.o ma cosa dici!
Hanno fatto un'intera conferenza spiegando questo.
Adesso cerco il link.
Queste però sono immagini vecchie adesso il fov è aumetato ed è passato da 4:3 a 16:9
Ricordati che ms è quella che ha messo 3 os sull'xbox one, non dovrebbe sorprenderti se fosse così
stronzate, il termine ologramma se l'e' inventato il marketing microsoft, sono normalissime immagini binoculari.
No. La cosa è leggermente più complicata.
La risoluzione degli ologrammi non dipende dalle stesse caratteristiche con cui noi siamo abituati a ragionare parlando di schermi e simili, ma si basa sui punti luce.
Più alto è il numero dei punti luce che attraversano l'ologramma maggiore è la definizione e il senso di solidità che viene dato all'ologramma stesso.
o la gente si immagina le cose, che mi pare piu' probabile.
se hai gia' un flusso video (due, uno per occhio) che te ne fai di generarne un terzo a risoluzione diversa solo per registrarlo?
Lo cose sono 2: O ms è la solita sbadatona oppure non riesce a gestire gli ologrammi e a registrare al massimo della risoluzione contemporaneamente per mancanza di potenza
con il supporto a tutti i pc windows 10, l'apertura ai partner e la collaborazione con intel non so se ci sarà una seconda versione. Magari questo era per mostrare le potenzialità della piattaforma ma poi lasciano tutto in mano a terzi.
in pratica i disply attuali coprono soltanto un piccolo rettangolo in fronte agli occhi, cosa non poco limitante - immaginati di star vedendo un'animazione di un animaletto che si arrampica sulla tua scrivania ed inizia a ballarci sopra - la cosa che fai normalmente e' seguirne il movimento con gli occhi ma appena li sposti dal centro sparisce nel nulla... a quel punto devi muovere tutta la testa mantenendo gli occhi fissi avanti per tornare a vederlo.
per intendersi, come spiega un recensore, mentre la prima e' l'immagine ipoteticamente completa quello che vedi realmente sono le successive, devi spostare la testa per vedere le parti mancanti (f5)
il primo prototipo mostrato alla stampa aveva un campo visivo molto piu' ampio ma richiedeva una specie di zainetto da tenere a tracolla, doveva essere anche abbastanza potente perche' chi lo ha provato parlava di ventole rumorose che gli sparavano aria molto calda in faccia.
al momento i limiti per avere un'unita' completamente contenuta nel caschetto sono questi, in futuro vedremo.
quindi genererebbe immagini a risoluzione diversa soltanto per registrarle? perche' dovrebbe?
parli del campo visivo con il termine fov?
il fov è stato tenuto basso per avere costi bassi e una maggiore durata della batteria.
ho letto anche la recensione di un tipo che diceva che poteva pinnare una finestra dall'altra parte della stanza ma riusciva a leggere anche i testi più piccoli con un ottima definizione.
Puoi linkare un video? Grazie
No. Il visore registra proprio ad una risoluzione più bassa rispetto a quella che manda in tempo reale sulle lenti. Non c'è nessuna illusione di risoluzione maggiore. C'è proprio una risoluzione maggiore.
Più che altro la vecchiaia del processo produttivo spiegherebbe la bassa durata della batteria
perche' essendo trasparente lo sfondo (ovvero il mondo reale che gli sta dietro) ti da l'illusione di piu' dettaglio di quanto ci sia realmente.
che e' un gran bel trucco :)
Hey, Vuoi un po' di Google Cardboard solo io & te? XD
Cit..... XD
solo in america, al momento.
Un bel pezzettino di hardware.
Una cosa che è stata sottolineata da chiunque abbia realizzato una recensione di HoloLens su YouTube è come la definizione degli ologrammi sia stupenda.
Dalle registrazioni che vengono fatti con alcuni dispositivi direttamente dalle lenti degli HoloLens si nota come la definizione degli ologrammi stessi agli occhi di chi lo indossa è di gran lunga migliore a ciò che si vede tramite quello che viene registrato dal software stesso degli HoloLens.
specifiche un po' basse e spiegano il perche' della riduzione estrema del fov del modello attuale, d'altra parte e' un modello sperimentale, promette bene per le future versioni definitive.
non erano 2 giga di ram?
"Realtà virtuale"... Vabbè...
OT: Il link per la notizia dell'aumento del costo del Plus per quanto riguarda la PS4, non funzia.