COME migliori offerte,
nessuna coda attaccatafotografia computazionale è un insieme di tecniche di elaborazione delle immagini che espandono le capacità raw di una fotocamera. Il suo obiettivo è consentire la registrazione di foto più creative, di qualità tecnica superiore o in condizioni più difficili, cosa che non sarebbe possibile solo con un sensore e un obiettivo per cellulare.
Immagine generata al computer della fotocamera di un telefono cellulare (Immagine: Creation/Dall-E)
Quando è nata la fotografia computazionale?
Il primo concetto di fotografia computazionale emerse nel 1936 in un articolo del ricercatore Arun Gershun che descriveva il “campo luminoso”, una funzione che stabilisce la quantità di luce che viaggia in tutte le direzioni attraverso tutti i punti dello spazio.
Nel 1996, Marc Levoy e Pat Hanrahan implementarono il campo luminoso nella computer grafica e proposero “un metodo per creare nuove viste da posizioni arbitrarie della telecamera semplicemente combinando e ricampionando le immagini disponibili”.
Tuttavia, la fotografia computazionale è diventata popolare solo negli anni 2010 con l’evoluzione dei processori di immagini negli smartphone, che hanno iniziato a svolgere compiti di intelligenza artificiale, reti neurali e apprendimento automatico per migliorare la qualità delle foto con un basso consumo energetico. .
Google Pixel, lanciato nel 2016, ha portato le capacità di fotografia computazionale sui telefoni cellulari (Immagine: Jean Prado/)
Google ha reso popolare il concetto di fotografia computazionale nel 2016 con i suoi telefoni Pixel, che scattavano buone foto con una fotocamera con apertura f/2.0 e un sensore da 12 MP, mentre i rivali scommettevano su fotocamere con specifiche superiori. Il successo del software della fotocamera è principalmente attribuito a Marc Levoy, che è rimasto in Google fino al 2020.
Altre tecniche di fotografia computazionale sono state sviluppate da produttori di smartphone come Xiaomi, Huawei e Samsung. Apple nel 2019 ha lanciato Deep Fusion, che elabora nove immagini per creare una foto più nitida, e ha migliorato la sua tecnologia nel 2022 con il Photonic Engine.
Quali sono i limiti della fotografia mobile?
I telefoni cellulari hanno un hardware fotografico inferiore rispetto alle fotocamere dedicate a causa di limitazioni fisiche. Mentre le fotocamere mirrorless o DSLR possono essere dotate di sensori di immagine di grandi dimensioni, uno smartphone deve avere un componente più compatto, che limita la sua capacità di catturare la luce.
Un sensore più piccolo necessita di una sensibilità ISO più elevata per catturare la stessa quantità di luce, il che può causare rumore nell’immagine. Inoltre, poiché i pixel del sensore di un telefono cellulare sono più piccoli, la gamma dinamica delle foto tende ad essere inferiore, il che può generare immagini con regioni soffiate o sottoesposte.
Dimensioni comuni del sensore della fotocamera; i telefoni cellulari di solito hanno dimensioni comprese tra 1 e 1/3 di pollice, mentre le fotocamere DSLR possono essere full frame (Immagine: Vitor Pádua / )
Anche il set ottico dei telefoni cellulari è limitato. Di norma, le lenti hanno un’apertura fissa, che impedisce il controllo della profondità di campo e, quindi, non consente la naturale sfocatura dello sfondo, il cosiddetto effetto bokeh. Inoltre, la lunghezza focale generalmente fissa impedisce all’obiettivo di avere uno zoom ottico variabile.
Un telefono cellulare può sostituire una fotocamera professionale?
Il telefono cellulare non sostituisce completamente una fotocamera professionale a causa delle limitazioni hardware. Nonostante abbia una maggiore potenza di elaborazione, uno smartphone non può catturare la stessa quantità di dettagli di un sensore DSLR, né può scattare in tutte le condizioni come una fotocamera con obiettivi intercambiabili.
Il nostro confronto tra smartphone, DSLR e fotocamere mirrorless mostra nel dettaglio i vantaggi e gli svantaggi di ogni tipo di attrezzatura.
Esempi di tecniche di fotografia computazionale
HDR e HDR intelligente
L’HDR espande la gamma dinamica, ovvero la differenza tra le aree più luminose e più scure dell’immagine. Questa tecnica di fotografia computazionale cerca di risolvere la limitazione delle dimensioni del sensore del telefono cellulare.
Quando si scatta una foto in HDR, il cellulare acquisisce diverse foto in sequenza, ciascuna con diversi livelli di esposizione, e il processore di immagini combina le informazioni in un unico file. Smart HDR è stato rilasciato da Apple nel 2018 e ha catturato fino a 9 immagini in meno di 1 secondo.
Foto utilizzata da Apple per dimostrare Smart HDR 4 su iPhone 13 Pro (Immagine: Disclosure / Apple)
La tecnica consente al cellulare di scegliere le parti migliori di ogni foto, come le aree più scure di un’immagine sovraesposta e le aree più luminose di un’immagine sottoesposta. Il risultato è una foto con più dettagli visibili sia nelle regioni più chiare che in quelle più scure, che migliora i colori e il contrasto.
modalità notturna
La modalità notturna, chiamata anche modalità notturna o visione notturna a seconda del produttore, migliora la qualità di una fotografia in condizioni di scarsa illuminazione. Compensa la limitata capacità di raccolta della luce dei sensori di immagine dei cellulari.
La funzione funziona in modi diversi. Può scattare più foto di seguito e combinarle in un secondo momento per ridurre il rumore, oppure tenere l’otturatore aperto più a lungo per far entrare più luce. Successivamente, il processore di immagini aumenta la luminosità riducendo al contempo il rumore nella foto.
Deep Fusion e motore fotonico
Deep Fusion è una tecnologia Apple che scatta nove foto di fila e utilizza il processore neurale dell’iPhone per comporre una foto con una migliore gamma dinamica, maggiori dettagli e meno rumore. Il chip utilizza tecniche di deep learning per identificare la scena e applicare le impostazioni migliori.
Foto utilizzata da Apple per dimostrare Deep Fusion su iPhone 12 (Immagine: Disclosure / Apple)
Photonic Engine è un’evoluzione di Deep Fusion che elabora le immagini con l’intelligenza artificiale prima che vengano compresse. Ciò consente al Neural Engine di lavorare con una maggiore quantità di dati e migliorare ulteriormente l’esposizione, il contrasto, la trama e altre caratteristiche della foto.
Binning dei pixel
Pixel binning combina diversi pixel adiacenti dal sensore di immagine in un singolo pixel, spesso chiamato « superpixel ». L’obiettivo è aggirare le piccole dimensioni dei pixel dei sensori dei telefoni cellulari, che possono generare più rumore e catturare meno luce.
La tecnica tetra-binning (2×2), ad esempio, combina 4 pixel in uno. Pertanto, un sensore da 48 MP con questa tecnologia genera una foto da 12 MP che ha un livello di dettaglio più elevato e occupa meno spazio nella memoria del dispositivo. Altre disposizioni si trovano spesso su sensori a risoluzione più elevata come 108 e 200 MP.
Tetra-binning e nono-binning (immagine: Vitor Pádua/)
modalità ritratto
La modalità Ritratto ti consente di creare una foto con uno sfondo sfocato. L’effetto è simile al bokeh che si verifica negli obiettivi con grandi aperture, quando il soggetto principale della foto rimane completamente a fuoco mentre lo sfondo appare sfocato. Il bokeh non si verifica naturalmente sui telefoni cellulari a causa dell’ampia profondità di campo.
In modalità verticale, il telefono può scattare due foto: una per il soggetto principale, una per lo sfondo. Quindi il processore di immagini unisce le due immagini, sfocando digitalmente quella con lo sfondo. I sensori di profondità e ToF possono identificare la profondità 3D della foto, generando ritagli di sfondo più accurati.
Foto macro, con profondità di campo ridotta (Immagine: Emerson Alecrim/)
Astrofotografico
La modalità Astrofotografia consente di acquisire immagini del cielo notturno con maggiore dettaglio e nitidezza. Funziona riducendo la velocità dell’otturatore per consentire a più luce di raggiungere il sensore e compensando digitalmente gli effetti indesiderati, come le vibrazioni della fotocamera o il movimento delle stelle, che causerebbero scie di condensazione nella foto.
Il Google Pixel 6 Pro del 2021 ha integrato le funzionalità di astrofotografia nella sua modalità notturna, chiamata Night Sight. Se appoggiato su un treppiede o su un’altra superficie, il cellulare scatta una foto delle stelle dopo aver tenuto esposto il sensore per 4 minuti. Anche Samsung Galaxy S22 è stato rilasciato con una funzionalità simile nel 2022.
ingrandimento spaziale
Space Zoom, Space Zoom, 100x Zoom e altre tecnologie simili utilizzano lo zoom ibrido per ottenere lunghe lunghezze focali sulla fotocamera di un telefono cellulare. L’obiettivo è scattare foto di oggetti molto distanti anche con un piccolo obiettivo che si adatta a un dispositivo compatto.
Combina lo zoom ottico del teleobiettivo o del periscopio con lo zoom digitale. Se è presente uno zoom ottico 10x più uno zoom digitale 10x, è possibile fotografare la luna con meno artefatti e rumore rispetto a un puro zoom digitale 100x. Il processore d’immagine agisce anche per ridurre i problemi causati dallo zoom digitale.
Diversi approcci di machine learning in fotografia
I produttori di telefoni cellulari possono utilizzare diversi approcci alla fotografia computazionale per creare foto visivamente più interessanti.
Apple, ad esempio, tende a utilizzare il machine learning per aumentare il realismo delle foto, migliorando la nitidezza di un’immagine con Deep Fusion e il Photonic Engine. L’obiettivo è evidenziare i dettagli esistenti che la fotocamera dell’iPhone non è in grado di catturare con precisione.
Altri marchi, come Samsung e Huawei, hanno persino utilizzato la fotografia computazionale per creare nuove foto. Il Galaxy S23 Ultra, ad esempio, aggiunge texture ad alta risoluzione della luna quando l’utente tenta di catturare una foto del satellite. Ufficialmente, la società nega la sovrapposizione di immagini.
Marc LevoyPixelGoogleAppleSamsungTelefono cellulareHuaweiDSLRXiaomiHDRiPhoneSamsung Galaxy S22