In un piccolo laboratorio del quartier generale Intel nella Silicon Valley, il robot Oculus sta giocando al gioco di successo “Cut the Rope” su uno smartphone. Utilizzando due dita con cuscinetti di gomma alle estremità, il robot tasta e scorre con leggerezza e precisione millimetrica lo schermo, superando con successo un livello del puzzle e segnando un punteggio perfetto.
E’ una mansione ben lontana dal lavoro servile per il quale il robot Oculus era stato sviluppato: trasportare wafer in silicio in una fabbrica di chip. Non è però una pura trovata da palcoscenico. Intel ha realizzato Oculus nel tentativo di collaudare empiricamente la reattività e la “sensazione” di un touchscreen per determinare se piacerà ai clienti.
Oculus analizza la risposta degli oggetti sullo schermo dei dispositivi al tatto. “Osserva” i dispositivi che regge tramite una videocamera da riprese cinematografiche prodotta dalla Red che cattura immagini a 300 fotogrammi al secondo con una risoluzione superiore all’alta definizione. Il software utilizza i fotogrammi per misurare la reazione di un dispositivo all’Oculus – ad esempio, con quanta precisione e a che velocità la linea in un programma di disegno segue il dito del robot, in che modo una tastiera sullo schermo risponde alla digitazione, oppure come le immagini sullo schermo scorrono e si muovono quando l’Oculus naviga attraverso un catalogo.
I punteggi numerici vengono convertiti in una valutazione da uno a cinque utilizzando i dati presi da esperimenti di psicologia cognitiva condotti da Intel per scoprire quali persone apprezzano un’interfaccia touch.
Per quegli esperimenti, centinaia di persone hanno utilizzato dei touchscreen programmati per avere diversi livelli di reattività. Questi test sono stati sviluppati da psicologhi del gruppo di interazione ed esperienza Intel, che studiano il rapporto delle persone con i computer (vedi “Intel Anthropologist Questions the Smart Watch“).
Il punteggio prodotto da Oculus e la ricerca psicologica si sono dimostrate utili per gli ingegneri e le aziende che lavorano ai dispositivi con schermo touchscreen basati su chip Intel. Sono stati utili anche per i designer di chip della Intel, spiega Matt Dunford, manager del programma incentrato sull’esperienza degli utenti. “Possiamo prevedere con precisione se una macchina offrirà alle persone una buona esperienza”, spiega, “e stabilire quali elementi vanno ricalibrati”.
L’approccio convenzionale consisterebbe nel ricorrere a un professionista di esperienza degli utenti per provare un touchscreen e ricevere una valutazione personale, spiega Dunford. Questa soluzione non offre però sempre un’indicazione specifica di cosa deve essere regolato per migliorare la sensibilità del dispositivo.
Intel non ha condiviso dettagli su come definisce la differenza tra un touchscreen lento e uno fulmineo. L’ingegnere robotico Eddie Raleigh, che ha collaborato nella realizzazione di Oculus, spiega che un buon touchscreen deve seguire il movimento del dito con un ritardo di appena qualche decina di millisecondi.
I test di Intel su soggetti umani hanno anche mostrato che la percezione della qualità puo variare notevolmente a seconda di come le persone utilizzano il dispositivo. Le persone tendono a elevare inconsapevolmente i propri standard quando utilizzano una stilo, ad esempio, spiega Raleigh. “Le persone sono abituate a utilizzare penne e matite, quindi lo schermo deve essere molto veloce, con un ritardo di appena un millisecondo”, dice. Nel frattempo, i bambini tendono ad aspettarsi una risposta più rapida da uno schermo touchscreen rispetto agli adulti, a prescindere dal contesto.
Raleigh sostiene che il suo team sia in grado di tenere in considerazione simili differenze quando preparano l’Oculus per un test. “Possiamo imitare un utente inesperto che si muove lentamente e goffamente oppure un utente esperto”, dice.
Al momento, Intel dispone di tre robot Oculus operativi e sta ultimandone un quarto. Il dispositivo può essere impiegato su qualunque touchscreen, dagli smartphone ai PC all-in-one. Utilizza una videocamera secondaria per adattarsi automaticamente a schermi di nuove dimensioni.
Intel ha anche costruito impianti semiautomatizzati per collaudare le prestazioni dei sistemi audio di telefoni e tablet. Una camera insonorizzata con la testa di un fantoccio contenente degli altoparlanti e dei microfoni e una videocamera serve a collaudare l’accuratezza e la reattività dei sistemi di riconoscimento vocale e delle app di assistenza personale. Una gamma di sofisticate videocamere e visualizzatori vengono utilizzati invece per controllare i colori mostrati da uno schermo.
Jason Huggins, cofondatore e CTO della Sauce Labs, un’azienda che offre il collaudo di app per telefoni e internet, sostiene che l’Oculus abbia dei cugini segreti all’interno delle principali aziende produttrici di telefoni e tablet. “Samsung, LG e Apple hanno tutti questo genere di cose, ma non ne parlano perché non vogliono che i loro concorrenti sappiano”, spiega. Dunford risponde che Oculus rappresenta un miglioramento rispetto agli strumenti utilizzati in precedenza dall’industria perché confronta i dispositivi utilizzando i dati sulla percezione effettiva dei touchscreen da parte delle persone. Altri robot, dice, tendono a controllare le prestazioni dei dispositivi su specifiche tecniche definite.
Huggins sta cercando di estendere la portata di robot simili perché crede che potrebbero aiutare gli sviluppatori di app a rifinire il proprio software. Ha creato un design open source per un robot di nomeTapsterche può’ operare dispositivi touch con una normale penna stilo con molta meno accuratezza dell’Oculus ma a un prezzo irrisorio. Molte delle sue parti possono essere realizzate da una stampante 3-D. Huggins ha venduto intorno alle 40 unità e sta adoprandosi per integrare una videocamera nel design.
“Se riuscirò a realizzare un robot capace di collaudare le app, credo che entrerò in un mercato molto serio”, dice. Al momento, gli sviluppatori di software pagano aziende quali la Sauce Labs per collaudare le loro app utilizzando dei lavoratori umani o dei software che emulino un telefono o un browser web.
Secondo Huggins, una terza opzione robotizzata sarebbe molto utile, e i test via robot di ogni forma di dispositivo sono destinati a diffondersi.
“Dobbiamo pensarci perché il software non è più intrappolato all’interno di un computer o dietro una tastiera e un mouse. Abbiamo telefoni, tablet, touchscreen Tesla da 17 pollici, Google Glass e il Leap Motion, che non prevede alcuna interazione tattile. Queste cose fanno affidamento sulla vista e il tatto delle persone, per cui dobbiamo riuscire a produrre una versione robotica di questa interazione”