Docsity
Docsity

Prepara i tuoi esami
Prepara i tuoi esami

Studia grazie alle numerose risorse presenti su Docsity


Ottieni i punti per scaricare
Ottieni i punti per scaricare

Guadagna punti aiutando altri studenti oppure acquistali con un piano Premium


Guide e consigli
Guide e consigli

Post produzione digitale: tecniche di manipolazione immagini., Appunti di Elaborazione digitale delle immagini

Design grafico digitaleTecnologie della informazione e della comunicazioneMultimedioFotografia digitale

Una introduzione alle tecniche di post produzione digitale per i fotografi. Scoprirete come il digitale e il fotoritocco abbiano revolutionato il processo di ritocco e stampa delle immagini, rendendolo più accessibile e versatile. Esplorerete i tipi di file immagine, la risoluzione, la profondità di bit e il colore, per capire come manipolare le immagini a piacimento. Speriamo che questo documento vi aiuti a comprendere le basi della post produzione digitale.

Cosa imparerai

  • Che tipi di file immagine esistono e quali caratteristiche hanno?
  • Come la risoluzione e la profondità di bit influiscono sulla manipolazione delle immagini?
  • Come il digitale ha influenzato il processo di ritocco e stampa delle immagini?

Tipologia: Appunti

2019/2020

Caricato il 24/11/2020

alessandra-cartillone
alessandra-cartillone 🇮🇹

2 documenti

1 / 8

Toggle sidebar

Spesso scaricati insieme


Documenti correlati


Anteprima parziale del testo

Scarica Post produzione digitale: tecniche di manipolazione immagini. e più Appunti in PDF di Elaborazione digitale delle immagini solo su Docsity! Introduzione alle tecniche di post produzione digitale L’avvento del digitale e del fotoritocco, per i fotografi, portò degli agevolamenti nel ritocco, tramite computer da casa, e nella stampa delle immagini, collegando un computer ad una stampante o scanner, cosa impossibile in precedenza in quanto bisognava fare il tutto in camera oscura e attraverso prodotti chimici. Durante il fotoritocco è possibile vedere i vari risultati in pochi secondi. Le nuove tecnologie simulano tutte le tecniche fotografiche utilizzate nella camera oscura (bruciatura, sfumatura, ecc). E’ possibile inserire effetti come movimento dove esso non è presente, riparare determinate aree, aggiungere immagini. Questi procedimenti, se fatti in camera oscura, sono abbastanza complessi o alcuni addirittura impossibili. Jeff Wall, dagli anni ‘70, allestisce, nei suoi lavori, dettagliate scenografie dettagliate, le quali imitano scenografie che imitano situazioni reali. Attraverso scenografie affronta vasti argomenti del tipo filosofico o sociale e riflette “metafotograficamente” sul valore di verità della fotografia. La fotografa di Wall è stata a volte guardata con sospetto perché programmaticamente finzionale. Egli dice che la fotografia deve cogliere uno stato d’animo e se è costruita verrà apprezzata per la qualità della tecnica, ma non emoziona. La foto che risulta non è quindi solo un “qualcosa è stato lì”, ma è anche “qualcuno l’ha visto”. La fotografia è ambigua, doppia e proprio per questo è interessante, inoltre è anche linguaggio e costruzione. Nella foto “The Flooded Grave” di Jeff Wall vi sono ben 75 foto circa. Il camposanto è fotografato in due luoghi diversi di Vancouver e la tomba fu fotografata vuota. Egli, successivamente, la riempì con un paesaggio marino e i diversi pesci presenti nella foto, sono stati fotografati in momenti diversi Dead Troops Talk (Jeff Wall) viene rappresentata come se fosse un grande scivolo illuminato. L’immagine rappresenta una scena di soldati appena uccisi sul campo di battaglia, vengono rianimati. Le truppe sono una pattuglia sovietica tesa un'imboscata in Afghanistan durante la guerra e l'occupazione degli anni '80. Il lavoro fu svolto in uno studio fotografico, le figure sono state fotografate separatamente o in piccoli gruppi e l'immagine finale è stata assemblata come un montaggio digitale. Elaborazione digitale L’elaborazione comporta l’utilizzo di algoritmi sfruttando codici numerici per modificare l’immagine digitale. Per digitale si intende tutto ciò che si può rappresentare con dei numeri infiniti. Il computer può riprodurre due tipi di immagini:  Vettoriali: create da linee e curve definite in modo matematico. A queste immagini possono essere attribuiti colori, sfumature e spessori, per questa caratteristica l’immagine può essere manipolata a piacimento. Ogni volta che si ridimensiona l’immagine queste funzioni andranno a rigenerarla senza creare effetti di sgranatura. Questo tipo di file inoltre, risulta essere molto leggero in quanto le informazioni dell’immagine è nettamente inferiore a quella dell’immagine Raster;  Raster: costituite da una griglia di punti colorati detti pixel .bmp o .jpg. L’immagine raster è composta da un susseguirsi di 0101. Il risultato visivo avviene attraverso i pixel un’immagine, ognuno dei quali possiede determinate informazioni di colore e luminosità. Questi pixel nel loro insieme creano una determinata immagine digitale. Il profilo colore usato più spesso nelle immagini di tipo Bitmap è l’RGB. L’immagine raster ha una sua struttura di informazioni e, andando a modificarla, si va incontro a problemi quali il rumore di fondo, comunemente chiamato pixelatura o sfocatura. -Digitalizzazione Un oggetto viene digitalizzato quando il suo stato originario analogico viene «tradotto» e rappresentato mediante un insieme numerabile di elementi. Una foto analogica viene digitalizzata quando la sua superficie rappresentata è divisa in un numero discreto di «punti», ognuno formato da un colore tra i 16.777.216 possibili combinazioni (in RGB combinazioni di 256 sfumature di rosso, 256 di verde, 256 di blu). -Pixel Il pixel è l’elemento più piccolo che costituisce un’immagine, il quale è caratterizzato da una posizione e valori come colore e intensità, i quali sono variabili in base al sistema adottato e rappresentato. Il pixel è caratterizzato da due dimensioni dette passi di campionamento della digitalizzazione (dX orizzontale e dY–verticale). L’insieme ordinato di campioni assume l’aspetto di una matrice o tabella numerica composta da un certo numero di righe (M) e colonne (N). Ogni campione o elemento di tabella è localizzato tramite il suo numero di riga e di colonna (il 1° pixel in alto a sinistra costituisce l’origine). -Risoluzione dell’immagine La risoluzione di un'immagine corrisponde al numero di pixel per pollice indicata con il termine in DPI (punti per pollice). Maggiore è il numero di pixel per pollice e più informazioni ci saranno nell'immagine. Ad esempio, un’immagine con una risoluzione di 300 dpi contiene dettagli maggiori rispetto ad una che ne contiene 150 dpi, perché ogni pollice è composto da un numero di punti più elevato. La risoluzione si divide in:  Risoluzione radiometrica: consiste nella minima differenza di luminosità rilevabile e viene detta profondità del colore in bit.  Risoluzione geometrica: legata all’ampiezza delle areole, minori sono i passi di campionamento (dX e dY), maggiore è la risoluzione geometrica del dispositivo. Si misura in DPI. Ogni sistema d’acquisizione utilizza una diversa risoluzione radiometrica tra: Bianco e nero 1 bit – 2 livelli di grigio possibili, 8 bit - 256 livelli di grigio possibili (valore standard), 10,11,12,16 bit – numerosi livelli di grigio possibili. A colori 24 bit, 30 bit 36 bit 48 bit-. Il numero di colori distinti che possono essere rappresentati da un pixel dipende dal numero di bit per pixel (BPP). -Profondità di bit La profondità di bit va a determinare la quantità di informazioni sul colore. Maggiore è il numero di bit, maggiore è il numero di colori disponibili e più precisa è la rappresentazione dei colori. Ad esempio, un’immagine con una profondità di 1 bit può avere due valori: bianco e nero. Un’immagine con una profondità in bit pari a 8 avrà 2⁸, ovvero 256, valori possibili. -Profondità in bit per le immagini RGB Tutte le immagini RGB sono costituite da tre canali e un’immagine a 8 bit per pixel ha oltre 16 milioni di valore del colore. Le immagini RGB con 8bit per canale (bpc) sono a volte definite immagini a 24bit (8bit x 3 e nelle immagini in formato digitale. La gestione del colore permette un wolkflow ottimizzato, mantenendo inalterato l’aspetto dei file da stampare o elaborare. Mantenere un buon wolkflow, basato sulla gestione del colore, ci permette di risolvere a priori problemi comuni legati alla stampa e alla corrispondenza cromatica. - La grafica Raster Nella grafica Raster, ogni immagine, viene vista come una scacchiera ed a ogni sue elemento (pixel) viene associato uno specifico colore. Quest’ultimo, in digitale, è associato a dei numeri. - Spazio colore Se per un monitor lo spazio colore che genera il suo profilo è variabile da monitor a monitor, nelle immagini acquisite in forma digitale è uno standard per ogni tipo di fotocamera, come per gli scanner. Lo spazio colore assegna una precisa gamma cromatica all'immagine, e i più comuni sono di due tipi: sRGB e ADOBE RGB (1998). La differenza fondamentale tra gli spazi colore è la diversa gamma (Gamut) cromatica apportata all'immagine. Lo spazio colore sRGB permette di ottenere immagini più sature ma con minori sfumature, apparentemente più "belle" nella visione a monitor in quanto la gamma del suo spazio colore è molto simile. L'altro spazio colore Adobe RGB (1998), offre con il suo Gamut più esteso immagini più tenui, con un maggior numero di sfumature, e rappresenta con maggiore precisione i colori e le tonalità dell'incarnato. Tuttavia, proprio a causa della sua gamma più estesa rispetto lo spazio colore RGB, nessun monitor sarà in grado di poterla riprodurre in tutti gli aspetti, ma sarà apprezzabile per il suo effetto cromatico solo su carta stampata. Il profilo colore del nostro monitor è l'interprete dello spazio colore incorporato nell'immagine, cioè "traduce" meglio tanto più è ben calibrato. La calibrazione del monitor è un’operazione attraverso la quale si possono regolare i colori riprodotti sullo schermo di un computer con il fine di renderli quanto più fedeli possibile a quelli ottenuti con la stampa su carta. Il motivo per cui non riusciremo mai a trovare l'esatta corrispondenza tra monitor e l'immagine stampata è dovuto esclusivamente al tipo di dispositivo (monitor o carta) sul quale la osserviamo. Dal momento che le immagini portano con se uno specifico spazio colore, è indispensabile farglielo sapere al software per fare in modo di mantenere la stessa gamma cromatica sull'immagine aperta. Diversamente, a poco sarà servito calibrare bene il monitor se poi apriamo l'immagine da elaborare senza tener conto del suo profilo colore, seppure tali differenze in alcuni casi siano impercettibili o ininfluenti. Nel caso non ci ricordiamo con quale spazio colore abbiamo acquisito l'immagine, dal menù "info- file" del software (con Photoshop) possiamo leggere, oltre i dati della ripresa, anche i dati relativi al suo spazio colore, risoluzione e dimensione. Con Photoshop, nelle impostazioni colore dovremo assegnare (prima di aprire l'immagine) lo spazio di lavoro sRGB o Adobe RGB (1998) a seconda dei file sui quali intendiamo lavorare. Useremo quindi Adobe RGB (1998) sui file che saranno acquisiti con tale spazio colore, oppure sRGB per quelli che avranno tale spazio colore. Fotocamera Digitale Il sensore ottico digitale ha determinate misure, che non sono proporzionali con la risoluzione del sensore, anche se determinate dimensioni del sensore ne limitano la risoluzione massima. I Sensori possono avere dimensioni fisiche paragonabili al sistema analogico su pellicola35mm (Full Frame di24x36 mm), ma anche di tipo APS Advanced Photo System con i corrispettivi digitali APS-C (24x16 mm) e APS-H (27x18 mm), tipicamente usati nelle fotocamere Reflex e Mirrorless. Esistono anche altri Sensori con dimensioni inferiori: quello più conosciuto è circa 1/4 della superficie Full, ma con un formato4/3 (17.3x13 mm), infatti vengono nominati Micro Quattro Terzi(MTF), mentre l'altro con dimensione 1" (13,2x8.8mm) è in formato3/2 o Fotografico. La maggior parte dei sensori per le "Compatte" (o tascabili) vengono classificati in frazioni di pollice (1/2,5", 1/1,8", 1/1,7" e 1/1,6") in quanto derivati dalla Video-ripresa CRT di qualche anno fa (1980) e dove il formato è 4/3, ma la dimensione reale è circa 2/3 della dimensione nominale in Pollici: un sensorenominaleda1/2,5" in realtà misura circa 5.4x4 mm ed è quello con le dimensioni minori. Ad un livello Professionale si trovano i Sensori Medio Formato con dimensioni da 33x44 mm a 56x42 mm in vari formati: 1/1, 3/2 e 4/3. Per ottenere una buona fotografia risulta essere importante un'ottica di qualità, un sensore che abbia un buon rapporto segnale/rumore, una buona gamma dinamica ed infine in funzione delle esigenze di stampa si sceglierà la risoluzione del sensore. Una macchina fotografica non "ha" una "sua risoluzione". Si definisce tale la quantità di pixel prodotti in uscita dal sensore. In fotografica invece spesso conta la profondità di risoluzione, che è data dal numero di punti per pollice lineare, e che viene decisa in fase di stampa. Ovviamente fotocamere con sensori più sofisticati, produrranno immagini con più informazioni e che quindi potranno essere stampate con un numero di pixel per pollice maggiore, a parità di dimensioni di stampa, delle immagini prodotte da un sensore meno efficiente. Il CCD è un microchip di silicio, il quale è ricoperto dai photosite, i quali sono una serie di piccoli elettrodi, disposti su una griglia più o meno fitta, le cui singole caselle prendono il nome di pixel. Al momento dello scatto fotografico la superficie del CCD viene caricata di elettroni i quali sotto l’azione della luce si raggruppano sui vari photosite. Tanto più forte sarà la luce che colpisce ogni singolo photosite, tanto maggiore sarà il numero di elettroni che in esso si addenserà. A questo punto basterà misurare la carica elettrica di ogni photosite per stabilire quanta luce ha colpito quel pixel. Una volta effettuato il conteggio degli elettroni l’informazione viene trasferita ad altri componenti della macchina e il CCD torna, per così dire “vergine”, pronto a registrare nuovamente. La registrazione della luce effettuata dal CCD sotto forma di carica elettrica viene chiamata segnale e trasferita ad un convertitore che traduce il segnale analogico continuo in segnale discontinuo numerico, costituito da tratti “scelti”. E’ in questa fase di trasferimento dal CCD al convertitore che, con il passaggio da un sistema di rappresentazione a tratti continui a uno a tratti discreti o discontinui, assistiamo alla rappresentazione in forma digitale di un segnale analogico. Durante l’esposizione su ogni unità ottica del sensore si creano delle cariche elettriche in proporzione alla luce ricevuta. Dei convertitori analogico-digitali (ADC) convertono queste correnti in segnali digitali che vanno a comporre l’intera immagine in file. Più elevato è il numero dei pixel più risulteranno elevate la risoluzione dei dettagli e la dimensione del file. Le immagini catturate sono equivalenti ai fotogrammi su una pellicola (L’immagine inquadrata, nel digitale, prima viene vista sul display LCD). Al posto della pellicola le macchine digitali hanno il sensore CCD (Charge- Coupled-Device) o CMOS (Complemetary-Metal-Oxide-Semiconductor), composto da una griglia di transistor fotocettori capaci di valutare l’intensità luminosa presente sul piano focale. Il sensore, presente nelle macchine digitali, svolge la stessa funzione che, nelle macchine fotografiche tradizionali, svolgeva la pellicola. Esso è composto da milioni di elementi fotosensibili e cattura informazioni riguardanti le tre componenti RGB. Quasi tutti i sensori, anche se con modalità diverse, hanno i photosite, i quali catturano una sola componente cromatica della luce. Sulla superficie del sensore infatti è collocato un filtro a mosaico denominato Color Filter Array (CFA), il più diffuso è di tipo Bayer che a sua volta può presentare diverse varianti sul numero dei colori che vengono filtrati (3 o 4) e sulla disposizione dei colori sul mosaico. Il più comune è quello denominato GRGB che ha il 50% dei photodetector che catturano il Verde (G), il 25% che catturano il Rosso (R) ed il rimanente 25 % che catturano il Blu (B). Per ottenere una adeguata fedeltà cromatica dell'intera immagine, ogni pixel registrato in un file grafico a colori (fa eccezione il file di tipo Raw) deve contenere le informazioni cromatiche di tutte e tre le componenti RGB della luce incidente su ogni pixel. Questo perché la riproduzione delle immagini luminose avviene per mescolanza additiva delle tre componenti primarie della luce. Poiché ogni photodetector ne cattura solo una di queste (R, G o B), non può fornire tutti i dati per la formazione del pixel, così le altre due informazioni cromatiche vengono calcolate dal processore d'immagine attraverso un procedimento matematico. Solo così il pixel, inteso come raggruppamento dei dati cromatici della più piccola porzione che forma l'immagine, può concorrere ad una rappresentazione fedele dei colori dell'immagine. A differenza della grana presente nella pellicola, i pixel sono unità di memorizzazione quadrate disposte in griglia. Mentre la grana della pellicola appare indistinta a meno che non si sia usata una pellicola t-max. L’occhio umano riconosce le strutture regolari più velocemente, specie se le curve o le diagonali di un’immagine sono scalettate con un procedimento noto come aliasing. Le caratteristiche che attribuiscono qualità ai sensori sono: •Elevato rapporto segnale rumore: si evidenzia in modo particolare nelle riprese a bassa luminosità dove possono comparire degli artefatti di immagine dovuti a segnali derivanti dal rumore elettrico di fondo degli elementi fotosensibili; •Elevata gamma dinamica: indica l'ampiezza dell'intervallo di luminosità dal minimo al massimo registrabile, prima che l'elemento fotosensibile vada in saturazione. •Elevato numero di pixel: l'elevata quantità di elementi fotosensibili garantisce un elevato dettaglio di immagine, ma sorgono problemi di velocità nel trasferimento dei dati al processore d'immagine. Maggiore è la risoluzione, maggiore è il numero di pixel, maggiore sarà quindi la quantità di dati da trasferire e dunque, a parità di velocità di trasmissione, maggiore sarà il tempo necessario a trasferire i dati al processore d'immagine e la successiva registrazione dell'immagine. •Capacità di non trattenere ombre sul sensore relative a riprese precedenti: Questo problema si incontra prevalentemente nei sensori di tipo CMOS e richiede che i costruttori adottino strategie per ottenere una sorta di cancellazione elettronica del sensore fra la ripresa di un'immagine e l'altra; •Capacità del sensore di non produrre artefatti derivanti da interferenze fra i pixel in particolari condizioni di ripresa; •Dimensione fisica del sensore a parità di pixel (e quindi a parità di risoluzione): se la dimensione fisica del sensore è elevata a parità di numero di pixel questo comporta ovviamente una maggiore dimensione fisica dei pixel o dei photosite. Tale fatto rende maggiormente sensibili gli elementi dei photosite (pixel) garantendo un miglior rapporto segnale/rumore. In termini di rumore e di sensibilità, la qualità del sensore è normalmente maggiore nel sensore più grande. •Interpolazione: è un altro parametro a cui andrebbe rivolta una certa importanza da chi della fotografia vuol fare qualcosa più di un hobby. Nelle fotocamere a bassa risoluzione si utilizza per generare dei pixel ulteriori a quelli catturati dal sensore generandone il valore di cromia per portare ad esempio una risoluzione di una fotocamera da 3 Mpixel a 4 Mpixel. Il procedimento, in realtà, non aggiunge informazioni vere all'immagine, ma rende meno evidente la quadrettatura dovuta al pixel se si volesse ingrandire l'immagine oltre il consentito. È un procedimento usato anche negli scanner attraverso un'elaborazione software. In tutte le fotocamere che