Lo schermo di Minority Report è possibile. Come Dyson ha presentato il suo nuovo V11 allo Swiss Corner di Milano

Ricordi come Tom Cruise, interpretando John Anderton in Minority Report, navigava tra i dossier delle sue investigazioni?

Ecco qui un piccolo promemoria:

L’interazione che John ha con le immagini su questo imponente schermo olografico è’ veramente una figata: sembra che il computer gli legga nel pensiero!
Più di una volta mi è capitato di parlare con clienti ai quali era stato detto che avere quel tipo di navigazione fosse possibile. 

Il problema principale in cui mi trovo in quelle situazioni è la sensazione, anzi, la certezza questi clienti sono stati illusi da qualcuno solo per vendere loro un servizio. Sono stati fatti vittima di un inganno, e riportare a terra qualcuno che sta volando sulla base di un inganno è un mestiere infame tanto quanto dire ad un bambino di 4 anni che Babbo Natale non esiste.

Purtroppo Minority Report è un film: tutte quelle immagini sono state montate in post produzione sulla base di un copione e Tom Cruise stava guardando un telo verde mentre compiva quelle azioni. Eh sì, è una triste realtà, ma è così.

Dopo questa doverosa premessa, ti voglio raccontare come, nel mondo reale, sono riuscito insieme al mio team a realizzare

un’interazione uomo macchina senza nessun dispositivo visibile.

Grazie ad un mio caro amico, Carlo Basci, Il Gruppo Roncaglia è arrivato a me con l’idea di muovere il nuovo Dyson V11 su uno schermo di 4 metri senza l’uso di nessuna interfaccia fisica. Una bella sfida, cui non potevo resistere. Far interagire il pubblico con un modello 3D renderizzato in realtime su un maxi schermo, un’idea innovativa e molto efficace per presentare un nuovo prodotto coinvolgendo il pubblico.

Ci sono volute settimane di ricerche e valutazioni, poiché i sistemi con i quali è possibile arrivare a questo risultato sono diversi. Abbiamo valutato Kinect, altre telecamere e anche la strada di una programmazione di gestures da 0. Quando si valutano questo tipo di installazioni, si innesca molto spesso una dinamica che porta a pensare che si possa gestire tutto “in casa”. Questo è certamente possibile, ma programmare un motore di gestures da zero richiede mesi in termini di ore di sviluppo e delle competenze informatiche molto specifiche, quindi molto costose. 

Il primo scoglio da superare è la comprensione del fatto che, per rispettare un budget adeguato a un’installazione temporanea, è necessario affidarsi a soluzioni già presenti sul mercato. 

Accettato questo, ci si focalizza su quali prodotti sono disponibili e su quali sono le maniere più efficaci per metterli in opera. Spesso, di conseguenza, la creatività sta nel saper combinare cose che già esistono, considerando tutti i loro limiti e vincoli, più che nell’immaginare come dovrebbero essere in un mondo ideale dimenticando di tenere in considerazione il fattore tempo (quindi denaro) necessario a costruire qualcosa.

Lo strumento ideale sembrava essere la Microsoft Kinect.

Le librerie Kinect offrono una ottima analisi dei movimenti di una persona, e ci sono diverse librerie che possono interpretare le gestures per passare i dati alla navigazione di un motore di rendering. Tuttavia, abbiamo scartato questa soluzione a causa di un solo decisivo problema: non è possibile decidere a quale persona, tra quelle comprese dal campo visivo della Kinect, il sistema si debba agganciare. Avendo l’obiettivo di creare un’esperienza dedicata ad una persona per volta, questa caratteristica ci ha indotti a evitare questo tipo di approccio. Abbiamo valutato anche altri dispositivi, ma la dinamica si rivelava con tutti molto simile a quella di Kinect. La ragione principale è che tutti i dispositivi consumer sono programmati per essere usati nei salotti di casa e quindi non prevedono di funzionare in posti affollati.

Alla fine di questo errante percorso la scelta è ricaduta su Christie Airscan.

Si tratta di un dispositivo di derivazione industriale che, attraverso una scansione laser, permette di creare una superficie touch “nell’aria”.

I dati di tocco raccolti vengono passati ad un software, sviluppato dai miei amici di Hotminds, nel quale è caricato il modello del DYSON V11 e che lo renderizza in tempo reale. Il software che abbiamo usato si chiama FLY; nasce per applicazioni industriali e viene usato dai nostri clienti come strumento di vendita nelle fiere dove è impossibile portare grandi macchinari. Grazie a FLY, gli espositori possono illustrare in maniera interattiva il prodotto, facendo comprendere ed elaborare al cliente dei processi interni alle macchine, apprezzando tutti i dettagli e la loro complessità.

Il risultato finale dell’installazione è questo:

non è certamente l’interazione fantascientifica di Minority Report ma, considerando che questa è la vita vera, lascio a te giudicare se abbiamo fatto un buon lavoro.

Buona visione!

Leave A Comment

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.