
07 Settembre 2017
Dimenticatevi le CPU, adesso siamo in un'altra era e Intel la sta percorrendo a pieno ritmo, ha abbandonato il mobile e si è così fiondata su IoT e intelligenza artificiale. Oggi viene così presentata al mondo Myriad X, la prima VPU (ovvero Vision Processing Unit) che darà ai dispositivi futuri la facoltà di vedere, interpretare e interagire, insomma delle 'retine digitali' a bassissimo consumo che alimenteranno l'AI interfacciandosi con il cosiddetto Neural Compute Engine.
La casa di Santa Clara vuol render autonomi i robot, le auto e dispositivi consumer, che siano droni o semplici smartphone, si potranno infatti realizzare delle vere smart cam capaci di interpretare ciò che inquadrano in tempo reale. Più di quanto non sia possibile oggi con assistenti digitali basati su una conoscenza di base. Si tratta di una naturale evoluzione dei sistemi di riconoscimento attuali, basti pensare a quelli montati sulle auto a guida autonoma. Con queste VPU si potrà semplificare l'intero procedimento, miniaturizzando l'hardware necessario.
La nuova VPU è stata realizzata dalla Movidius, azienda della famiglia Intel, ed è piccolissima: un SoC da 8.5 x 8.7 mm a consumi ridottissimi capace di gestire contemporaneamente fino a 8 videocamere RGB HD, processando ben 700 milioni di pixel al secondo. Latenza ridotta all'osso, si parla di una banda interna di ben 450 GB per secondo e 2.5 MB di memoria Homogenous On-Chip.
Vediamo di cosa sarà capace questa VPU e come è strutturata nel dettaglio:
Commenti
scusami eh. sai cos'è SLAM?
In realtà riescono ad elaborate 600 milioni di pixel al secondo, mi aspetto quindi che sarà possibile fare operazioni su almeno la metà.
Certo, ma una cosa è gestire dei flussi in entrata, una cosa è utilizzare questi flussi per fare qualcosa di più complesso.
Boh a me 600.milioni di pixel sembrano ben più di due flussi 4k.
Non sto facendo finta di non capire, ti sto dicendo che per gestire due flussi di dati in 4K in real-time non ti basta la potenza di una gpu di medio livello con consumi e ingombri ben più grandi di questa cosa. Sarebbe fi go sì, ma non è fatta per queste cose. E' fatta per far girare meglio algoritmi offline che trovi su wearable o su smartphone o su altre ca z z atelle IoT, ma non per fare cose molto professionali.
Non so se fai finta di non capire o cosa... Ecco perché voglio questa VPU,proprio per cedere di quanto i miei algoritmi potranno andare meglio con risoluzioni elevatissime
non credo tu abbia idea della mole di dati da gestire in tal caso e delle cose da fare per ottenere determinate cose in computer vision. Al momento lo stato dell'arte arriva a 60 fps con uno stereo rig 640x480.
Era controproducente!! Con questi processori potrai farlo, capisci? Non ci sarà più bisogno di inventarsi tecniche strane, potrai elaborare tutta l'informazione che vuoi!
Ovviamente dipende dal task, ma non è fondamentale diciamo. Anzi per alcune applicazioni è controproducente. Prova a fare slam con uno stereo rig 4K
Wot = nome simpatico per What
Non fare confusione, stavi parlando di : "Inizia a fare "attività" un po' più complesse come: tracking di animali nella foresta, individuazione di anomalie superficiali (crepe, sporcizia pannelli solari), identification di colori e vedi come la risoluzione ti aiuta ;)"
PS What's "Wot"?
bojafaus... ma il MIT ad alcuni utenti qui sotto "gli fa proprio i p0mp!n!" a mano libera eh...
ahhh... troppi Elon Musk nel mondo... e troppi pochi i Tesla.
Ehm...tracking con foto? Wot?
In tal caso si usano foto ad alta risoluzione, non serve il video!
What? Per niente. Forse per le "attività" (come le chiami tu) semplici come rivelazione oggetti fermi, detection di incendi, identificazione cartelli stradali.
Inizia a fare "attività" un po' più complesse come: tracking di animali nella foresta, individuazione di anomalie superficiali (crepe, sporcizia pannelli solari), identification di colori e vedi come la risoluzione ti aiuta ;)
è inutile il 4K per queste attività, basta una 640x480 per funzionare bene
La nuova VPU è stata realizzata dalla Movidius, azienda della famiglia Intel, ed è piccolissima: un SoC da 8.5 x 8.7 mm a consumi ridottissimi capace di gestire contemporaneamente fino a 8 videocamere RGB HD, processando ben 700 milioni di pixel al secondo. Latenza ridotta all'osso, si parla di una banda interna di ben 450 GB per secondo e 2.5 MB di memoria Homogenous On-Chip.
Cmq questa e`solo la priam versione e gia riesce a gestire 8 camere hd ,, vuol dire circa 2 camere full hd .. le prossime generazioni saranno ancora piu potenti
capace di gestire contemporaneamente fino a 8 videocamere RGB HD...
Che ci azzecca il 4k?
Comitato pro-tablet
w w w . youtube . com / watch?v=_bJYLJiaSj4
Per fare applicazioni di Visione Artificiale che riescano a catturare QUALSIASI dettaglio in un'immagine...fidati...SERVE. Mica per vedere i film, quello è marketing ;)
Tranquillo muoriamo prima. Sei un una realtà in cui gli assistenti vocali migliori sono ancora nei film
Uuuuuuuuuu
Cchiù pilu
A che serve il 4K ?
Tutto fico, ma è un chip che elabora informazioni che comunque dovrà prendere da qualche parte, ergo, dovrà essere abbinato a dispositivi con una buona ottica. Ce la farà a reggere due flussi in 4k contemporaneamente senza perdite di frame? Due perché uno per occhio
Lo schiavo potresti diventare Tu... Anzi forse forse, senza rendercene ancora conto, lo siamo già tutti...
Di sicuro stiamo creando una tecnologia che può rivoluzionare in positivo il nostro futuro. Il problema è che la parte oscura dell'essere umano sembra sempre prevalere e quindi tali tecnologie potrebbero essere usate per "controllarci" e non per migliorare la nostra vita.
Troppo lenti! forza con questa automazione io voglio lo schiavo robot quando sarò anziano.
Mah spero di no, dai! Non volevo sembrare così estremo. Più che dalle innovazioni tecnologiche, il mio timore nasce dall'incertezza che ne deriva (come per tutto). Di fronte a situazioni nuove siamo sempre spiazzati, però di solito ci siamo sempre adattati nella storia fino ad ora.
castpga
Non c'è giorno in cui non avvenga un passo in quella direzione.
Futuro distopico in arrivo, come nei film?
Viva l' fpga é chi li castiga
Guardando tutte queste innovazioni anno dopo anno, un po' mi spaventa pensare al futuro dove la tecnologia ci sta portando. Ciò nonostante ne rimango sempre affascinato.
Ma insomma qui nel Belpaese non c'è da preoccuparsi più di tanto, di sicuro non siamo un popolo di "early adopters".
Non è un sostituto delle cpu eh. Serve comunque una cpu per coordinare tutto.
Ahaha
La voglio!!! Ci voglio portare su tutti i miei programmi di Visione Artificiale. PLEASE DAMMI DAMMI DAMMI.
Mi ricorda le sfere di Oblivion
più fpga per tutti! (che male non fa, oh poi se avete altre preferenze, de gustibus)
Ed ecco che atom non serve più
si dai, è un normale fpga, hardware dedicato insomma
fa entrambe le cose. tra l'altro la HPU 2.0 ha un chip dedicato nella HPU.
Ma L' HPU serve per l'olografico, questa per l' AI; non sono cose diverse?!
Meglio Ryz...ops sbagliato articolo...
Secondo le prime indiscrezioni dovrebbe essere in grado di gestire un miriade di calcoli paralleli al secondo.
Scommetto che è una derivazione generale della hpu di HoloLens