Comprensione della tecnologia Sensor-Shift per immagini ad alta risoluzione

Sommario:

Anonim

Georgian Bay - Paesaggio estivo

Modifica della modalità di scatto delle fotografie

Negli ultimi anni, un certo numero di produttori ha prodotto fotocamere in grado di produrre immagini ad alta risoluzione tramite una tecnologia chiamata Sensor-Shift Technology. Questa tecnologia è stata resa possibile con l'avvento della stabilizzazione dell'immagine corporea (IBIS). I progettisti di fotocamere hanno utilizzato IBIS come un modo per ottenere incredibili aumenti nella risoluzione dell'immagine o per migliorare le informazioni sul colore per le immagini che vengono scattate.

Esistono diversi nomi per questa tecnologia, tra cui Modalità ad alta risoluzione, Pixel Shifting Resolution System, Pixel Shift Multi Shooting Mode oi nomi più generici di pixel-shift / sensor-shift, ma alla fine, i concetti alla base di questa tecnologia sono tutti lo stesso. Più immagini della stessa vista vengono scattate in modo tale che le immagini vengano impilate e unite per creare un'unica immagine, generalmente di grandi dimensioni, ad alta risoluzione.

Ci sono punti di forza e di debolezza di questa nuova tecnologia e capire come funziona può aiutarti a realizzare immagini migliori da solo se hai una fotocamera in grado di farlo.

NOTA: Poiché i siti Web utilizzano immagini a risoluzione inferiore, le immagini utilizzate in questo articolo sono state ridimensionate e modificate per simulare le differenze tra le immagini ad alta risoluzione e lo standard output delle telecamere. Quando guardi le immagini per intero, le immagini sembrano simili ma quando ti avvicini ai dettagli nelle immagini è allora che inizi a vedere le differenze.

Margherite Gerbera indoor, risoluzione regolare (20 MP) Olympus OMD EM 1 Mark II

Margherite Gerbera indoor, alta risoluzione (50MP) Olympus OMD EM 1 Mark II

Molti approcci alle immagini con spostamento del sensore

L'acquisizione di immagini con spostamento del sensore è stata trasformata da costose fotocamere speciali per diventare una funzione sempre più disponibile sulle nuove fotocamere orientate alla risoluzione. Oggi, oltre al mostro H6D-400c di Hasselblad (immagini da 400 Megapixel), ci sono offerte di Olympus, Pentax, Sony e Panasonic.

Queste versioni generalmente utilizzano lo stesso approccio concettuale ma a prezzi molto più accessibili.

Movimento di spostamento del sensore

Chi utilizza Sensor-Shift?

Indipendentemente dal produttore, l'azione di base dell'acquisizione di immagini con spostamento del sensore rimane la stessa. Scatta più immagini ma sposta leggermente il sensore della fotocamera per ciascuna immagine per acquisire più dati dell'immagine e quindi unisci l'immagine.

Spostando il sensore, i dati sul colore dell'immagine migliorano consentendo di risolvere più dettagli superando i problemi inerenti con i photosite specifici del colore. Ignorando Hasselblad, i sistemi che utilizzano questa tecnologia includono fotocamere come Olympus OM-D E-M1 Mark II (Micro Quattro Terzi), Pentax K-1 Mark II DSLR, Sony a7R III e Panasonic Lumix DC-G9 (Micro Quattro Terzi) sebbene ce ne siano altri degli stessi produttori.

Tre di queste linee sono fotocamere mirrorless con la Pentax che è una DSLR con sensore di ritaglio. È interessante notare che le fotocamere Panasonic / Olympus adottano un approccio e Pentax / Sony adottano un approccio diverso agli stessi concetti.

I sistemi Olympus / Panasonic utilizzano un approccio che produce immagini ad alta risoluzione molto grandi, mentre i sistemi Pentax e Sony utilizzano lo spostamento del sensore per migliorare le informazioni sul colore di immagini della stessa dimensione. Entrambi i sistemi Pentax e Sony consentono anche la separazione delle singole immagini spostate dal sensore, mentre Olympus e Panasonic uniscono le immagini impilate in una singola fotografia.

Olympus OMD EM5 Mark II ha la tecnologia di spostamento del sensore.

Come funziona la tecnologia dei sensori?

Per capire come funziona la tecnologia di spostamento del sensore è necessario comprendere anche come un sensore funziona generalmente su scala molto piccola. Nei bei vecchi tempi della fotografia su pellicola, le fotocamere utilizzavano pellicole sensibili alla luce per registrare le immagini. Le fotocamere digitali utilizzano un approccio molto diverso per registrare la luce.

Le fotocamere digitali utilizzano fotodiodi sensibili alla luce per registrare la luce che colpisce il sensore. Nella maggior parte delle fotocamere digitali, ogni fotodiodo ha un filtro colorato specifico (rosso, verde o blu), che forma un fotosite. Questi fotositi sono disposti per consentire alla luce di essere miscelata per vedere il colore dell'immagine che arriva sul sensore.

I fotositi rosso, verde e blu su un sensore sono generalmente disposti in uno schema specifico noto come array Bayer (noto anche come matrice Bayer, filtro). Ci sono anche altre configurazioni come il sensore Fuji X-Trans (utilizzato su molti dei loro modelli di fotocamera) o Sigma che utilizza un sensore Foveon.

Con un arrangiamento Bayer, ci sono il doppio dei fotositi verdi rispetto al rosso o al blu perché la visione umana è più in sintonia con la risoluzione dei dettagli in verde. Questa disposizione generalmente funziona bene, ma se ci pensi, su un'immagine, un pixel di colore viene creato mescolando questi fotositi insieme.

Il sensore non sa quanto rosso ci sia su una posizione del sensore verde o su una posizione del sensore blu, quindi è necessaria l'interpolazione. Questo può creare alcuni artefatti nelle fotografie se guardi da vicino e tende a significare che le immagini RAW hanno una messa a fuoco leggermente morbida. Tutte le immagini RAW necessitano di un po 'di nitidezza in post-elaborazione (il verde, il rosso e il blu di un pixel vengono fusi insieme).

Modello Bayer di fotositi

Sensori statici

In una normale fotocamera senza IBIS, ogni photosite registra solo la luce di un colore in quel punto, quindi i dati che registra sono tecnicamente incompleti. È come un secchio che raccoglie solo la luce da un colore particolare. Un gruppo di secchi di luce nel motivo Bayer viene utilizzato per creare un singolo pixel nell'immagine digitale, ma all'interno di quel pixel ci sono due segmenti verdi, uno blu e uno rosso.

Per fondere insieme l'immagine e mettere un singolo colore in quel pixel, i segnali dal cluster di fotodiodi vengono risolti insieme. I dati raccolti vengono interpolati tramite un algoritmo di de-mosaicing sia nella fotocamera (jpeg.webp) o su un computer (da un'immagine RAW), un processo che assegna valori per tutti e tre i colori per ogni photosite in base ai valori collettivi registrati dai photosite vicini .

I colori risultanti vengono quindi emessi come una griglia di pixel e viene creata una fotografia digitale. Questo è in parte il motivo per cui le immagini RAW hanno una messa a fuoco leggermente più morbida e devono essere rese più nitide nel flusso di lavoro di post-produzione.

Sensori in movimento

IBIS significa che i sensori ora si muovono leggermente per adattarsi ai movimenti sottili di una telecamera per mantenere stabile l'immagine. Alcuni produttori affermano che i loro sistemi sono in grado di stabilizzare la combinazione di sensore e / o obiettivo per un equivalente di 6,5 stop.

Lo spostamento del sensore consente a tutti i photosite a colori di registrare i dati per ciascuna posizione sul sensore.

Questa stabilizzazione è ottenuta mediante micro regolazioni della posizione del sensore. Per le immagini con spostamento del sensore, vengono utilizzate le stesse micro regolazioni per esporre ciascun fotosite alla luce della registrazione di una singola immagine. In sostanza, il sensore viene spostato non per adattarsi a perturbazioni esterne ma per fare in modo che ogni porzione di un'immagine contenga informazioni a colori.

Photosites piuttosto che pixel

Potresti aver notato il termine fotositi invece di pixel. Le fotocamere sono spesso valutate in base ai loro megapixel come misura del loro potere risolutivo, ma questo crea confusione perché le fotocamere non hanno in realtà pixel solo fotositi.

I pixel sono nell'immagine prodotta quando i dati dal sensore vengono elaborati. Anche il termine "spostamento dei pixel", che a volte viene utilizzato, è fuorviante. I pixel non si muovono, sono i sensori che hanno i fotositi che si muovono.

Nell'acquisizione di una sola immagine, ogni photosite registra i dati per la luce rossa, verde o blu. Questi dati vengono interpolati da un computer in modo che ogni pixel nella fotografia digitale risultante abbia un valore per tutti e tre i colori.

Sensori di spostamento

Le fotocamere a spostamento del sensore tentano di ridurre la dipendenza dall'interpolazione acquisendo i dati di colore per il rosso, il verde e il blu per ogni pixel risultante spostando fisicamente il sensore della fotocamera. Considera un quadrato di 2 × 2 pixel preso da una fotografia digitale.

L'acquisizione digitale convenzionale utilizzando un array Bayer registrerà i dati da quattro fotositi: due verdi, uno blu e uno rosso. Tecnicamente ciò significa che mancano i dati per la luce blu e rossa nei fotositi verdi, i dati verdi e il rosso nei fotositi blu e blu e verde nei fotositi rossi. Per risolvere questo problema, i valori di colore mancanti per ogni sito verranno determinati durante il processo di interpolazione.

Ma cosa succede se non dovessi indovinare? E se potessi avere il colore effettivo (rosso, blu e verde) per ogni photosite? Questo è il concetto alla base della tecnologia di spostamento del sensore.

Un'immagine a risoluzione normale.

Immergersi più in profondità

Considera un quadrato 2 × 2 pixel su una fotografia digitale creata utilizzando la tecnologia pixel-shift. La prima foto inizia normalmente con i dati registrati dai quattro fotositi. Tuttavia, ora la fotocamera sposta il sensore per spostare i photosite e scatta di nuovo la stessa immagine ma con un photosite diverso.

Ripeti questo processo in modo che tutti i fotositi abbiano tutta la luce per ogni punto esatto del sensore. Durante questo processo, i dati sulla luce da quattro fotositi (due verdi, uno rosso, uno blu) sono stati acquisiti per ogni pixel, ottenendo valori di colore migliori per ogni posizione e minore necessità di interpolazione (ipotesi plausibile).

Un'immagine ad alta risoluzione con gli stessi ISO, apertura e velocità dell'otturatore.

L'approccio Sony e Pentax

La modalità di scatto multiplo Pixel Shift di Sony e il Pixel Shifting Resolution System di Pentax funzionano in questo modo. È importante notare che l'utilizzo di queste modalità non aumenta il numero totale di pixel nell'immagine finale. Le dimensioni dei file risultanti rimangono le stesse, ma la precisione del colore e i dettagli sono migliorati.

Sony e Pentax scattano quattro immagini spostate di un intero photosite per immagine per creare un'unica immagine. Sta davvero semplicemente migliorando le informazioni sul colore nell'immagine.

L'approccio Olympus e Panasonic

La modalità ad alta risoluzione delle fotocamere Panasonic e Olympus, che utilizzano entrambe sensori Micro Quattro Terzi, adotta un approccio leggermente più sfumato, combinando otto esposizioni prese a ½ pixel l'una dall'altra. A differenza di Sony e Pentax, questo aumenta notevolmente il numero di pixel nell'immagine risultante.

Da un sensore da 20 megapixel, ottieni un'immagine RAW da 50-80 megapixel. C'è solo una singola immagine senza possibilità di accedere alle singole immagini di una sequenza.

Quali sono i vantaggi dell'utilizzo di Sensor-Shift?

L'utilizzo della tecnologia di spostamento del sensore presenta diversi vantaggi. Scattando più immagini, conoscendo le informazioni sul colore per ogni posizione del photosite e aumentando la risoluzione si ottengono tre cose principali. Si riduce il rumore, si riduce l'effetto moiré e si aumenta la risoluzione complessiva delle immagini.

Rumore e risoluzione migliorata

Scattando più immagini con un leggero cambiamento nella posizione del sensore, la risoluzione dell'immagine aumenta, ma anche le informazioni sul colore nelle immagini. Ciò consente a immagini simili di consentire un maggiore approfondimento dell'immagine con colori più uniformi, meno rumore e dettagli migliori.

Un'immagine a risoluzione normale.

Un'immagine ad alta risoluzione.

Ritagliata strettamente all'immagine a risoluzione normale, inizi a vedere il rumore che appare come la grana e la variazione di colore.

Ecco lo stesso ritaglio sulla versione ad alta risoluzione, il colore e il dettaglio sono migliori con meno rumore.

Meno moiré

L'effetto moiré è la comparsa di disturbi o schemi di artefatti che appaiono nelle immagini con schemi regolari e stretti. I sensori più recenti tendono ad avere meno problemi con Moire rispetto al passato, ma apparirà comunque in alcune immagini.

La causa dell'effetto moiré tende ad essere correlata ai motivi stretti registrati e alla fotocamera che ha problemi a risolvere il motivo perché ha problemi con i motivi del fotosite del sensore. Le informazioni sul colore per i fotositi Rosso, Verde e Blu hanno problemi con i bordi in questi schemi stretti perché non viene registrato tutto il colore per una singola posizione.

Con lo spostamento del sensore, tutto il colore di ogni posizione è presente, quindi l'effetto moiré tende a scomparire.

Immagine a risoluzione normale.

Immagine ad alta risoluzione con area di ritaglio evidenziata

L'area ritagliata sull'immagine a risoluzione standard - inizia ad apparire del rumore (i graffi sulla carta erano già presenti).

L'immagine ad alta risoluzione ha meno rumore e più dettagli.

Allora perché non usarlo per ogni immagine?

Bene, il motivo principale è che devi scattare più immagini di una singola scena. Ciò significa che questo non funziona davvero bene per i soggetti in movimento. Il processo richiede, come minimo, quattro volte il tempo di esposizione dell'acquisizione di una singola immagine. Ciò si traduce in quattro opportunità per una parte della composizione e / o della fotocamera di spostarsi durante l'acquisizione dell'immagine, degradando la qualità dell'immagine.

Tali vincoli limitano l'applicazione della tecnologia alla fotografia di nature morte e di paesaggi (statici). Qualsiasi movimento nella scena che viene catturata creerà un'area sfocata o pixelata. Questo è un problema per la fotografia di paesaggio se c'è un vento che sposta piante o nuvole e aree in cui è presente acqua corrente.

Ciò significa anche che di solito è necessario essere molto stabili e utilizzare un treppiede, sebbene ci siano alcune chiare intenzioni da parte dei produttori di rendere disponibili versioni che consentano lo scatto a mano libera della fotocamera (Pentax ha questa caratteristica).

Immagine ad alta risoluzione scattata su treppiede.

Gli artefatti da movimento sono visibili se visti più da vicino.

Stranezze di alcuni dei sistemi

Poiché la tecnologia di spostamento del sensore è stata implementata in modi diversi ea seconda del sistema utilizzato, i problemi sono leggermente diversi. La stranezza principale è che generalmente hai bisogno di un treppiede, quindi niente corsa e pistola.

Il sistema Sony ha altre limitazioni: non è possibile visualizzare l'immagine finché non si elaborano insieme le quattro immagini separate. Ciò significa che non puoi rivedere la tua immagine risolta sulla fotocamera. Inoltre, a causa dell'elevato numero di pixel sulla A7R mark III, qualsiasi sottile movimento del treppiede è particolarmente evidente sull'immagine risultante. Per modificare le immagini, è inoltre necessario utilizzare un software proprietario Sony per unire le immagini insieme.

Pentax ha alcune caratteristiche interessanti. L'utilizzo dell'applicazione software fornita con la telecamera consente di indirizzare il movimento utilizzando un algoritmo all'interno del software per la rimozione degli artefatti da movimento. Funziona meglio del software comunemente utilizzato per la manipolazione delle immagini come Adobe.

Il sistema Olympus esiste da un po 'di tempo e nell'iterazione più recente sull'Olympus OMD EM1 Mark II, qualsiasi movimento rilevato avrà i pixel interessati sostituiti con parti di una delle singole immagini a risoluzione regolare nelle aree di movimento. Questo crea una risoluzione non uniforme ma rende l'immagine migliore per cose come il vento. Inoltre limita in particolare se c'è molto movimento. Spesso le immagini sembrano un po 'pixelate.

Immagine a risoluzione standard di un albero: tutto è nitido.

Un'immagine ad alta risoluzione dello stesso albero ma c'era vento… L'area ritagliata è mostrata nel riquadro giallo.

Area ritagliata espansa: il movimento del vento ha generato alcuni artefatti sull'immagine.

Limitazioni

La sfida più grande che deve affrontare l'acquisizione di immagini con spostamento del sensore è costituita dai soggetti in movimento. Inoltre, il tentativo di accoppiare uno strobo con una fotocamera utilizzando l'acquisizione di immagini con spostamento dei pixel può essere complicato dalla velocità di acquisizione delle immagini, dai limiti di riciclo del flash e dai problemi generali di compatibilità. I produttori sono consapevoli di questi problemi e stanno lavorando per risolverli.

Nel complesso, la tecnologia sta solo andando a migliorare

Sempre più sistemi utilizzano algoritmi per produrre queste immagini a risoluzione più elevata. Man mano che la tecnologia matura, le implementazioni otterranno risultati sempre migliori, potenzialmente in grado di affrontare il movimento e le condizioni del palmare.

Il vantaggio per i produttori è che vengono prodotte immagini di qualità migliore senza la necessità di sensori ad alta densità di pixel molto costosi (più economici). I vantaggi per l'utente sono che le immagini possono avere migliori informazioni sul rumore e sul colore per risultati finali migliori.

Buona caccia a quella perfetta immagine ad alta risoluzione!