Cominciamo a familiarizzare con il termine NUI, Interfaccia Naturale per l'Utente, ovvero tutto quello che studia l'interazione uomo-macchina, consentendo di comunicare senza la necessità di controllare strumenti elettronici, ma semplicemente attraverso le conoscenze di una gestualità specifica del corpo e attraverso il riconoscimento vocale. La sfida che stiamo affrontando è quella di rendere possibile un percorso multimediale con un'interfaccia che sia praticamente invisibile.

La brevissima storia della NUI 
Nel 2006 Christian Moore ha fondato in Microsoft un gruppo di ricerca con l’obiettivo di discutere e sviluppare le tecnologie per un’interfaccia utente naturale. Nel 2008 August de los Reyes nella presentazione della conferenza “Predicting the past” ha descritto le NUI come la futura evoluzione del passaggio storico dalle CLI (Command Line Interface, l’interazione uomo-macchina tramite tastiera) all’Interfaccia Grafica (GUI), ideata da Douglas Engelbart (creatore anche del concetto di ipertesto) e diffusa nel 1981, ancora oggi comunemente utilizzata dagli utenti che usano un computer. 

Per circa 30 anni il successo del mouse (e della tastiera) ha permesso l’approccio al computer ad un esteso numero di utenti su scala mondiale fino a quando nel 2010, Bill Buxton (Microsoft) ha ribadito l’importanza e l’innovazione dell’interfaccia grafica naturale presentata ufficialmente attraverso una dimostrazione pratica durante il Consumer Electronics Show del 2010. 

Stiamo parlando di una tecnologia giovanissima con meno di 10 anni di vita
A dicembre 2010 la società Prime Sense, una compagnia israeliana da tempo impegnata in ricerca e sviluppo di sistemi di controllo senza dispositivi fisici e responsabile della tecnologia del sistema di telecamere di Kinect, ha rilasciato i driver open source per questa innovativa periferica, compatibili con Windows e Linux ( versione Ubuntu 10.10 in poi). Questi driver consentono di accedere alle funzioni audio, video e ai sensori di profondità di Kinect e sono basati su un a API completa, nota come OpenNI (Open Natural Interactions). OpenNI permette di catturare il movimento in tempo reale, il riconoscimento di gesti delle mani e dei comandi vocali e implementa anche un "analizzatore di scena", che rileva figure in primo piano e le separa dallo sfondo.

Abbiamo progettato e realizzato una postazione multimediale con tecnologia NUI nel Museo delle Miniere di Ingurtosu (Pozzo Gal, Marina di Arbus).