Ripresa plenopticaL'avvento del digitale non ha comportato solamente il passaggio dalla pellicola a un supporto di altro tipo, ma ha aperto la strada alla possibilità di sperimentare in ambiti del tutto nuovi e talvolta anche insoliti. C'è però un denominatore comune: la capacità di elaborazione offerta dai microprocessori. Ecco, anche per chi non è matematico, come il calcolo è destinato a cambiare il modo di lavorare del fotografo.

Ricca di promesse per il futuro della fotografia digitale è l'esigenza che si inizia ad avvertire nel settore affinché le case produttrici rivedano la scala delle priorità che ha sinora privilegiato la "corsa al megapixel" rispetto ad altri parametri qualitativi di pari, se non superiore, importanza. Nell'imminenza del PMA di Las Vegas uno dei principali siti specializzati come DPreview esprimeva nella propria wish list un'accorata preghiera perché le novità attese per la manifestazione non si riducessero come troppo frequentemente accade a un semplice aumento della risoluzione (un'evoluzione ormai data per scontata, come una sorta di Legge di Moore trasferita dai microprocessori ai sensori), ma si tornasse invece a considerare la qualità tecnica dell'immagine nel suo complesso. Qualità che è risultato di numerosi fattori e non di un mero calcolo ragionieristico dei pixel disponibili.

Le stesse aziende produttrici mostrano di recepire questa sensibilità, trasmettendo a loro volta segnali che ci consentono di guardare a una fine decennio scandita da novità anche rivoluzionarie.

Non che in questi ultimi anni i laboratori di ricerca siano stati in vacanza, anzi. Sembra piuttosto che il settore della fotografia si sia accorto di un fatto quasi sconvolgente nella sua banalità: con il passaggio al digitale, la macchina fotografica ha cessato infatti di essere lo strumento dominante per eccellenza nella produzione dell'immagine, per diventare invece la "periferica di acquisizione dati" all'interno di un processo ben più articolato nel quale microprocessori e computer assumono – per potenza di elaborazione, praticità di interfaccia e flessibilità funzionale – un ruolo sempre maggiore. Sulla base di questa consapevolezza i ricercatori hanno potuto iniziare a esplorare in nuove direzioni avvalendosi di una risorsa sconosciuta alla fotografia tradizionale: il calcolo.

Un moderno Polifemo

Il Texas non è solamente il più grande di tutti gli Stati Uniti. In Texas tutto è grande. Grandi spazi, grandi distanze, grandi automobili, grandi campi petroliferi, grandi allevamenti, grandi (anzi, enormi) T-bones. Curioso che proprio qui, presso la Rice University di Houston, si stia mettendo a punto il sensore più piccolo del mondo: un sensore da un pixel.

I sensori tradizionali sono matrici di fotodiodi, o singoli elementi fotorecettori presenti in ragione di un elemento per ciascun pixel. Semplificando, quando si scatta un'immagine non si fa che esporre l'intera matrice alla medesima scena recuperando una minima parte dei dati restituiti da ciascun fotodiodo per produrre il file RAW che descrive l'immagine stessa. È chiaro che la risoluzione dipende dalla quantità di questi fotorecettori: a parità di formato di sensore (APS-C, 35mm, medio formato...), una maggior risoluzione comporta la capacità di raggruppare un numero maggiore di elementi all'interno dello stesso spazio fisico; e, per quanto la tecnologia stia compiendo grossi passi avanti, esiste pur sempre un limite alla densità di fotodiodi applicabili su un sensore. Senza considerare, inoltre, che ciascun elemento va alimentato e gestito da un'apposita circuiteria di supporto ponendo una seria ipoteca sull'autonomia delle batterie.

Il sensore a singolo pixel della Rice University ribalta i termini del problema acquisendo in rapidissima sequenza migliaia di letture da un unico fotodiodo che a sua volta riceve il segnale luminoso prodotto da un DMD (Digital Micromirror Device), un tipo di semiconduttore inventato alla fine degli anni Ottanta e largamente impiegato all'interno di HDTV, videoproiettori e televisori digitali. Un DMD è composto da alcune centinaia di migliaia di microspecchi – ciascuno non più grande di 16 micron, ovvero quanto un batterio di grosse dimensioni – il cui orientamento può essere rapidamente modificato a piacere. Ogni lettura è frutto di una differente configurazione on/off casuale di questi microspecchi, dove lo stato "on" è riflettente. A ogni lettura l'immagine acquisita dai microspecchi del DMD viene "compressa" nel pixel individuale di cui è composto il sensore.

Dopo migliaia di letture il risultato è un'immagine del tutto equiparabile al rumore bianco che possiamo osservare su un televisore analogico non sintonizzato. Sembrerebbe impossibile riuscire a ricostruire la scena originale, ma un modo in effetti esiste.

Consideriamo cosa accade quando si salva un'immagine in un formato "lossy", cioè a perdita di informazione: semplicemente vengono scartati dati ridondanti o comunque ritenuti inutili ai fini della riproduzione di una scena che debba essere visualizzata da un osservatore umano. Le tecniche di compressione come quelle impiegate dallo standard JPEG non fanno altro che identificare e conservare le parti significative di un'immagine, riutilizzandole per ricostruire la miglior approssimazione possibile dell'originale.

Sull'immagine grezza prodotta dal sensore Rice si esegue l'operazione inversa: viene applicata una particolare tecnica matematica (detta "compressed sensing") per capire quali siano le parti significative utilizzabili per la ricostruzione della scena originale separandole dall'informazione di fondo. Si tratta di un'operazione comunque complessa che richiede una potenza di calcolo non indifferente, motivo per cui sia gli inventori del sensore Rice (il team guidato dal prof. Richard Baraniuk) sia uno degli inventori della tecnica di compressed sensing (il matematico Terence Tao) sono molto espliciti nel ritenere che questa tecnologia sia più che altro indicata come front-end per alcune applicazioni specifiche che possono avvalersi di un'adeguata capacità di calcolo back-end – risonanza magnetica, fotografia astronomica e reti di sensori in genere – che non per un impiego generale su apparecchi portatili, almeno allo stato attuale. Certo è che un sensore di questo genere, con i suoi limitatissimi consumi elettrici (almeno per quanto concerne la parte di acquisizione dell'immagine) e una risoluzione dipendente non più dalla densità superficiale dei fotodiodi bensì dal numero di letture eseguite, presenta tutte le potenzialità per aprire un ramo evolutivo dell'hardware per la fotografia digitale del tutto alternativo rispetto a quello fin qui seguito.

Profondo rosso, verde e blu

Il ricorso intensivo alle capacità di calcolo non è prerogativa del sensore Rice. Vi sono per esempio altri due team di ricerca, uno presso la Stanford University e uno all'interno di Adobe Systems, che stanno facendo affidamento sulla rapidità di sviluppo della potenza dei microprocessori sperimentando le tecniche di ripresa plenoptica (o polidiottrica) associate alla fotografia digitale.

Schema multiaperturaIl gruppo di Stanford sta lavorando su sensori composti da una serie di sottomatrici leggermente sovrapposte tra loro. In pratica i sensori vengono suddivisi in aree più piccole (i prototipi sviluppati sinora sono un sensore da 3MP con sottomatrici da 16x16 pixel e un sensore da 16MP con 90.000 sottomatrici da 175x175 pixel), ciascuna delle quali abbinata a una propria microlente indipendente. L'immagine raw prodotta da un sensore di questo tipo è dunque l'insieme delle diverse letture eseguite dalle sottomatrici di pixel e di microlenti, tanto che per questo genere di sensore si parla di "multiapertura" rispetto alla singola apertura che nel sensore tradizionale è associata all'obiettivo montato sulla macchina.

Sul medesimo concetto è basato il lavoro di Adobe, che però ha deciso di puntare sullo sviluppo di obiettivi plenoptici (e non di sensori) probabilmente sia per motivi di costi, sia per esplorare l'eventuale possibilità di applicazione su macchine fotografiche digitali con sensore tradizionale. L'obiettivo plenoptico è composto da una serie di lenti più piccole, ovviamente in numero minore rispetto alla densità raggiungibile dalle sottomatrici dei sensori di Stanford, ma il risultato è concettualmente lo stesso.

Tutto questo lavoro ha uno scopo ben preciso. La ripresa polidiottrica, sia essa eseguita a livello di sensore piuttosto che di obiettivo, introduce infatti nel processo di ricostruzione dell'immagine la possibilità di sviluppare una mappa tridimensionale (di per sé non stereoscopica) della scena sfruttando le informazioni di messa a fuoco associate a ciascuna lente: caratteristica che spiana la strada a tecniche di post-processing dell'immagine che tengano conto dei dati spaziali, sempre a patto di disporre di un'idonea potenza di calcolo.

Tra le applicazioni pratiche della fotografia plenoptica vi è la possibilità di modificare la messa a fuoco dei vari piani di un'immagine successivamente allo scatto, cambiando dunque la profondità di campo a piacere; ma ovviamente la capacità di selezionare un qualunque intervallo dell'asse Z dell'immagine (oltre alle coordinate X,Y utilizzate per il ritaglio nei tradizionali software di fotoritocco) introduce letteralmente una nuova dimensione per ogni funzione di post-processing – esposizione, correzione del colore, applicazione di filtri, effetti creativi e tutto quello che può venirvi in mente. Insomma, se siete abituati a usare programmi come Photoshop o GIMP pensate a quello che potreste fare se solo aveste a disposizione una funzione "bacchetta magica" non più piatta bensì tridimensionale. Se il sensore Rice può rivoluzionare il design degli apparecchi fotografici, la tecnica plenoptica può condurre a una profonda revisione del rapporto tra fotografo e immagine, tra osservatore e rappresentazione della realtà.

Ricomposizione plenopticaLa disponibilità pratica di tecniche di questo tipo non è esattamente dietro l'angolo: i progetti di ricerca non sono ancora maturi, e come detto richiedono un supporto significativo in termini di capacità di elaborazione che non è ancora alla portata del PC o della workstation di un fotografo. A volte, però, l'applicazione del calcolo alla fotografia digitale riesce a produrre soluzioni efficaci utilizzando semplicemente le tecnologie già esistenti: è il caso di un metodo di ottimizzazione dell'immagine basato sulla teoria dello sciame di particelle.

Quando il comportamento è nitido

Un team congiunto della De Montfort University di Leicester e della Al-Balqa Applied University di Salt, antica capitale della Giordania, ha infatti sperimentato con successo un algoritmo stocastico nato nell'ambito degli studi sui comportamenti sociali, ma che negli ultimi anni sta guadagnando crescente popolarità anche nella soluzione di problemi di ottimizzazione di ogni genere. La teoria dello sciame si basa su un modello matematico non particolarmente complesso che descrive il comportamento e l'interazione sociale di insiemi di individui: uno sciame d'insetti, appunto, o un gregge di pecore, uno stormo di uccelli o un banco di pesci.

Quando lo sciame è composto da innumerevoli versioni della stessa immagine che vengono create modificando leggermente i parametri cella copia originale, l'algoritmo PSO (Particle Swarm Optimization) raffronta le variazioni in modo da determinare quale componente dello sciame presenti caratteristiche migliori rispetto ai propri simili. Dopo una serie di iterazioni, come fosse il prodotto di una selezione evolutiva, questa tecnica restituisce una nuova immagine la cui nitidezza è notevolmente superiore a quella ottenibile con i tradizionali algoritmi di image enhancement attualmente impiegati in post-produzione.

Il trattamento delle immagini con la teoria dello sciame rientra già nelle possibilità dei computer odierni, e sarà quasi sicuramente il primo degli esempi presentati in questo articolo a vedere la luce in un prodotto commerciale; per gli altri, che presuppongono oltretutto la disponibilità di hardware apposito, dovremo pazientare ancora un po'. Ma il quadro che emerge oggi dai laboratori è chiaro: il settore della fotografia computazionale ha tutte le carte in regola per stupirci sempre più – a patto di essere disposti a rimettere periodicamente in gioco le nostre esperienze, preferenze e convinzioni. Ma ne varrà la pena.


Cerca su Osservatorio Digitale