Se i vostri tentativi di imitare Ansel Adams con lo smartphone sono stati vanificati da finestre riflettenti o recinti, alcuni ricercatori di Google e del MIT potrebbero avere la soluzione che fa per voi: un algoritmo in grado di separare il primo piano dallo sfondo e rimuovere fastidiose ostruzioni.
L’algoritmo opera cancellando le differenze fra primo piano e secondo piano all’interno di una sequenza di foto scattate muovendo leggermente il proprio smartphone, in maniera del tutto simile al movimento che si compie quando si scatta una foto panoramica.
L’algoritmo opera cancellando le differenze fra primo piano e secondo piano all’interno di una sequenza di foto
Michael Rubinstein, uno scienziato di Google che ha lavorato come ricercatore post dottorato presso Microsoft Research, dove ha condotto parte del lavoro, sostiene che il principio fondamentale dell’algoritmo si basi sul fenomeno del parallasse di movimento, in cui gli oggetti più vicini sembrano muoversi più rapidamente rispetto a quelli più lontani; pertanto, siccome una delle immagini nella scena – l’ostruzione – è più vicina alla macchina fotografica rispetto all’altra – quella che vorreste veramente immortalare – le due si muoveranno in modo diverso.
«Siccome si muovono diversamente, possiamo utilizzare questa informazione per determinare la presenza di due strati distinti e rimuovere uno di essi», dice. Non mancano le ricerche nella rimozione di ostacoli dalle fotografie, afferma Rubinstein, ma l’algoritmo elaborato da questi ricercatori sarebbe multifunzionale.
Il lavoro verrà presentato questo mese in occasione della conferenza Sigrraph di Los Angeles, e le immagini allegate al documento – la maggior parte delle quali sono state scattate con degli smartphone Android – mostrano una notevole differenza fra lo scatto iniziale e il risultato finale. In una delle fotografie, la recinzione metallica che separa una tigre dai visitatori di uno zoo pare completamente rimossa. In un altro scatto, una finestra che riflette una maglietta a scacchi di fronte a un edificio in lontananza viene quasi completamente rimossa.
MESSAGGIO PROMOZIONALE
Tianfan Xue, autore principale del documento e studente laureato al MIT, sostiene che, oltre ai riflessi sui vetri e alle recinzioni metalliche, l’algoritmo riesca a correggere una serie di ostruzioni quali gocce d’acqua o polvere sui vetri. Funzionerebbe anche su altre superfici riflettenti.
Xue, che ha condotto parte del lavoro quando si trovava presso Microsoft Research, dice che finché le ostruzioni restano immobili, l’algoritmo è in grado di rimuoverle. Rubinstein afferma che Google sia interessata a questo algoritmo, che un giorno potrebbe diventare una funzione standard per le fotocamere, visto che funziona in maniera simile alla funzione panoramica già disponibile su diversi smartphone. Per il momento, però, non esiste alcun piano concreto per distribuire un simile strumento.
Prima che ciò avvenga dovranno comunque essere risolte diverse limitazioni. L’algoritmo non è in grado di lavorare con immagini di oggetti in movimento, come gli scatti di un evento sportivo, e non funziona bene in condizioni di luminosità ridotta. Non è neanche in grado di gestire ostacoli multipli – una finestra bagnata dalla pioggia di fronte a una ringhiera attraverso la quale si intravede la figura di un leone, ad esempio. Pur essendo migliore rispetto ad una foto occultata da una macchia sul vetro, «certamente non è magia», commenta Rubinstein.
(Traduzione di Matteo Ovi)