LA GRAFICA RASTER (1)

Premessa

La consuetudine con le immagini digitali comporta un certo grado di banalizzazione. Il fatto in se positivo di poter scattare fotografie e produrre video con apparecchi tascabili e di condividerli, pubblicarli e persino editarli in modo estemporaneo direttamente dallo smartphone o dal tablet, ha fatto si che in genere si considerino queste possibilità come ovvie conquiste delle nuove tecnologie. La facilità con la quale produciamo immagini il più delle volte costituisce un freno all’approfondimento degli aspetti tecnici che altresì può contribuire a migliorare la qualità e allargare gli orizzonti della creatività artistica; per non dire della necessità di tali approfondimenti nell’ambito delle professioni fotografiche (e in special modo quelle relative al cinema e alla televisione).

Qui entriamo in un campo, quello tecnologico, in continua evoluzione. I saperi tecnologici richiedono un alto livello di competenze e di specializzazione; uno studio continuo e continui aggiornamenti. Tuttavia, è possibile fissare alcuni concetti fondamentali che aiuteranno gli studenti ad orientarsi, persino nella scelta del proprio apparecchio fotografico o di una video-camera; ma soprattutto forniranno le basi indispensabili per una solida formazione.

In questa esposizione cercheremo di toccare “tutti” i concetti fondamentali che riguardano le immagini digitali; aspetti che sono alla base della loro produzione, premessa al trattamento e alla elaborazione del colore. Si tratta di una esposizione necessariamente schematica e sintetica il cui scopo è di elencare i concetti e di iniziare a metterli in relazione tra loro.
È molta roba. Ma il presente ha proprio il valore di un sommario, perché molti dei contenuti sono disseminati in altri articoli di questo blog, con approfondimenti che all’occorrenza ho richiamato con collegamenti ipertestuali.
—————————————————————————————————————————————

  1. Le immagini digitali sono costituite da insiemi di elementi detti PIXEL (acronimo delle parole inglesi PIcture X ELement = elemento immagine).
  2. Si tratta di un termine generico che viene usato per riferirsi a cose diverse.
    Sono pixel i dati visivi che formano le immagini che osserviamo sui display; sono pixel i singoli elementi di vario tipo che visualizzano le immagini nei display; sono pixel gli elementi di vario tipo, forma e dimensioni dei sensori che nelle fotocamere catturano le immagini.
    • Le dimensioni dei pixel sono molto variabili e possono essere estremamente ridotte (dell’ordine dei milionesimi di millimetro come nel caso degli elementi dei sensori digitali). Ma in una immagine a bassissima risoluzione (lo vedremo più avanti), a soli 10 PPI (pixel per pollice quadrato), sono appena 100, mentre in una fotografia ad alta risoluzione di 360 PPI nella stessa area ne troveremmo 129.000!
  3. I pixel sono disposti in un RASTER (= reticolo, griglia) ortogonale secondo un ordine periodico (nel caso dei display) o aperiodico, cioè casuale (nel caso dei sensori CMOS di ultima generazione presenti in fotocamere e videocamere).
    • I sensori CCD e anche quelli di tipo CMOS, sono raster periodici se dispongono del cosiddetto filtro passa basso: “Un filtro passa-basso ottico (OLPF) viene a volte definito come filtro anti-aliasing. Il filtro è inserito in molte fotocamere digitali e si trova di fronte al sensore di immagine. Obiettivo principale dell’OLPF è eliminare dall’immagine le informazioni ad alte frequenze e ridurre l’effetto moiré e falsi colori causato da onde ad alte frequenze presenti nelle immagini.. Gli effetti moiré si presentano nelle scene caratterizzate da dettagli ripetitivi, come ad esempio i motivi nei tessuti o nell’abbigliamento o le fitte linee verticali di elementi architettonici. Questi motivi non appaiono in natura ed ecco perché l’effetto moiré e falsi colori si verifica raramente nella fotografia di paesaggi e natura”. (Fonte Nikon).
Tav. Filtro OLPF
  1. In pratica, volendo fare un semplice esempio: un raster composto da 4000 px orizzontali per 3000 px verticali, consiste di 12 milioni di pixel (12 mpx).
    • Questo raster può essere il sensore di una fotocamera o l’immagine fotografica prodotta dalla stessa (abbiamo detto che i pixel indicano cose diverse).
    • Vale a dire che il numero complessivo dei pixel che compongono il sensore daranno luogo alle informazioni digitali che vediamo sotto forma di immagine sul display dello smartphone o sul monitor di un computer.
    • Se l’immagine è destinata alla stampa – senza interventi di ricampionatura (aumento o riduzione delle dimensioni) – quelle informazioni verranno inviate alla macchina di stampa che provvederà a trasformarle secondo la tecnologia di stampa utilizzata.
    • Ad esempio, per una stampa a getto d’inchiostro, i pixel in input (PPI = Pixel Per Inch) saranno trasformati in punti (DPI = Dot Per Inch).
      • La qualità della stampa, tuttavia, dipende in maggior misura dalla stampante e dal supporto di stampa (dalla carta impiegata) che dalla definizione in input.
Tav.1 Illustrazione di un particolare pari a 59 milionesimi di mm di un sensore digitale
  1. Ciascun pixel che forma l’immagine costituisce una informazione di luce/colore, ricavata dalla conversione del segnale digitale in un segnale elettrico (analogico) ad opera di dispositivi di visualizzazione (i dispaly). 
    • Si consideri che l’immagine digitale è – a sua volta – ricavata dalla iniziale conversione del segnale luminoso riflesso dal soggetto/originale avvenuto ad opera del sensore presente nella fotocamera (o nello scanner).
    • Schematicamente il processo è il seguente: 
  1. partiamo da una ripresa fotografica (o da una digitalizzazione a mezzo scanner);
  2. il sensore dell’apparecchio cattura la luce riflessa dall’immagine sotto forma di impulsi elettrici;
  3. un convertitore A/D (analogico/digitale) presente nella fotocamera (o nello scanner) trasforma le cariche elettriche in dati numerici (digitali = 0/1);
  4. l’immagine digitale viene visualizzata su di un display – direttamente sulla fotocamera o sullo smartphone o sul monitor di un computer – previa la conversione  – questa volta – digitale/analogico dei dati numerici; che può avvenire sia direttamente nel dispositivo (fotocamera) o da parte di un applicativo software per computer (ad esempio Photoshop).
  5. Ricordiamo che per i nostri sistemi hardware (compurer, smartphone, ecc.) le informazioni sono “digitali” (digit = numero) poiché tutto ciò che viene acquisito o elaborato deve essere convertito in numeri binari (0/1); 
  1. Il processo di DIGITALIZZAZIONE (che avviene in apparecchio foto-video digitale o in uno scanner) consiste nella trasformazione della luce riflessa dall’ORIGINALE (soggetto fotografato, stampa fotografica, fotocolor trasparente o altro genere di documento) in CAMPIONI più o meno minuti, convertiti in dati numerici (0/1).
  2. La digitalizzazione procede per CAMPIONAMENTO e per QUANTIZZAZIONE. Il Campionamento decide la DEFINIZIONE dell’immagine digitale; la Quantizzazione stabilisce i limiti entro cui il segnale analogico sarà approssimato nella digitalizzazione.
    • La quantizzazione comporta una approssimazione per difetto (dal continuo analogico alla discretizzazione digitale). Nelle immagini digitali, è responsabile del rapporto Segnale/Rumore e dell’effetto di aliaising, la tipica scatettatura lungo il bordo delle immagini raster che appaiono più o meno frastagliate, tanto più evidente quanto minore è il numero dei bit che formano l’immagine.

      (Più avanti si entrerà nel merito dei bit in relazione alla Profondità di colore dell’immagine digitale, ma bisogna osservare che un maggior numero di bit comporta anche una migliore qualità dell’immagine dal punto di vista della nitidezza generale).
  3. Il pixel è in primo luogo l’elemento di base del dispositivo fisico, il display (quello del monitor come quello di un tablet e di uno smartphone, di un televisore ecc.), ed è un  LED o un cristallo liquido (LCD) che si illumina quando gli giunge il segnale elettrico, convertendo i dati digitali (gli 0/1 dell’informazione digitale) in un dato analogico (luce)  che forma l’immagine visibile. 
Tav. 2: Disegno di una curva raster a 8 bit (scala di Grigio)
Tav. 3: Ingrandimento di una curva raster a 1 bit (bitmap)
Tav. 4: Raster di Pixel RGB di un display LED
  1. Gli elementi che raccolgono i segnali luminosi (analogici) dall’originale  – ripreso con una fotocamera digitale o acquisito con uno scanner – effettuano una campionatura del soggetto. 
  2. Maggiore è il numero degli elementi (pixel) del sensore, migliore sarà la campionatura; maggiore sarà la DEFINIZIONE (registrazione quantitativa dei dettagli più fini) dell’immagine. 
  3. Nelle fotocamere si parla generalmente di MPX (megapixel = Milioni di Pixel);
  4. Negli scanner si parla di Risoluzione, indicando il numero massimo di informazioni ottiche che il dispositivo è in grado di registrare progressivamente dall’originale sottoposto al processo di digitalizzazione.
    • È necessario tener presente che Definizione e Risoluzione non sono gli unici parametri – e non necessariamente i più importanti – per determinare la qualità delle immagini che sono ottenibili dai vari dispositivi! Lo vedremo più avanti.
    • Nelle fotocamere digitali un fattore ancora oggi molto importante sono le dimensioni fisiche del sensore: a parità di numero di pixel totali (definizione) un sensore più grande, avendo pixel di dimensioni maggiori, è in grado di ricevere una maggiore quantità di luce. Questo consente di generare un rapporto Segnale-Rumore (SNR = Signal to Noise Ratio) più favorevole. 
      • Il SNR  è una grandezza numerica che mette in relazione la potenza del segnale utile rispetto a quella del rumore in un qualsiasi sistema di acquisizione, elaborazione o trasmissionedell’informazione. (Wiki)
    • Va ricordato che un ruolo importantissimo lo svolge anche il software di elaborazione che in molti casi attualmente produce un miglioramento considerevole della qualità visiva dell’immagine (si parla di A.I. = Intelligenza Artificiale).
    • Nelle ultime versioni Photoshop implementa un algoritmo per la RICAMPIONATURA che minimizza la perdita di qualità nel caso sia necessario aumentare le dimensioni fisiche dell’immagine.
      • La questione non è di secondaria importanza perché, mentre da un lato il marketing delle aziende che producono apparecchi fotografici e soprattutto smartphone enfatizza il fattore risoluzione – senza parlare della dimensione dei sensori – dall’altra gli algoritmi di elaborazione sono in grado di utilizzare sempre meglio i dati reali per generare immagini di migliore qualità, soprattutto ai fini della stampa, partendo da una definizione di input limitata.
Tav. PHOTOSHOP – IMMAGINE>Dimensione immagine
Tav. Immagine ricampionata (part.) con sovrapposta il dettaglio dell’immagine di partenza.
  1. Un’immagine o un suono diventano percepibili quando sono riconvertiti da informazioni digitali in dati sensoriali. 
    • Come vedremo, i PIXEL non sono un parametro assoluto perché possono essere di forma e dimensioni diverse.
  2. Possiamo paragonare i PIXEL alle tessere che formano un MOSAICO. Ma solitamente le tessere di un mosaico hanno forma e dimensioni diverse, mentre i pixel che formano una immagine digitale hanno la stessa forma e le stesse dimensioni.
  3. La RISOLUZIONE dell’immagine determina la dimensione di ciascun pixel che l’andrà a formare.
    • Minore è la risoluzione di una immagine, più grandi sono i pixel.
    • Maggiore è la risoluzione più piccoli sono i pixel.
    • Ne deriva che una immagine ad alta risoluzione, a parità di dimensioni fisiche, sarà costituita da una maggior quantità di pixel.
    • Se però lasciamo inalterata la quantità totale di pixel che costituiscono l’immagine e modifichiamo la risoluzione, le dimensioni saranno modificate.
    • Diminuendo la risoluzione l’immagine risulterà ingrandita.
    • Aumentando la risoluzione, l’immagine sarà ridotta nelle dimensioni. 
  4. La TECNOLOGIA impiegata stabilisce se i pixel saranno QUADRATI o piuttosto RETTANGOLARI e, in tal caso, quale sarà il rapporto base x altezza del rettangolo (1.33: 1 per un Aspect Ratio 16: 9).
    • Solitamente, nelle immagini digitali prodotte da fotocamere e da scanner, i pixel sono sempre quadrati. Photoshop, ad esempio, si basa su pixel quadrati.
  1. Poiché un’immagine è una percezione visiva (un percètto per la psocologia della forma = GESTALT), ogni pixel è un elemento di luce/colore dell’immagine totale.
  2. In effetti, ogni pixel può rappresentare il bianco o il nero in una immagine digitale ad 1 bit (bitmap); 
Tav. Immagine Bitmap (1 bit = Bianco-Nero)
  1. in altri termini, i pixel di una immagine bitmap possono essere solo o bianchi o neri.
  2. le immagini bitmap (1 bit colore) poiché consistono del minimo delle informazioni possibili per rappresentare i soggetti, di norma sono prodotte con una elevata RISOLUZIONE anche quando hanno una DEFINIZIONE bassa, ovvero quando il quadro – ovvero, le dimensioni base x altezza dell’immagine – sono molto ridotte: 
  3. ad esempio un’immagine di 1024 x 768 pixel (con una definizione di 786432 pixel complessivi) con una risoluzione di 600 PPI produce una stampa di soli 4,33 x 3,25 cm).
  4. RISOLUZIONE = la risoluzione può essere considerata come il parametro che misura la DENSITÀ di informazioni da l’unità di misura in uso cm o inch ( = pollici).
  1. La risoluzione esprime la campionatura delle informazioni ricavabili dall’originale, analogamente a quanto accade in altri ambiti di digitalizzazione come quello dei suoni. 
    • Si deve comprendere che nel passare dalla realtà (analogico) alla rappresentazione digitale, si passa da qualcosa di unitario e continuo a qualcosa di frammentato e DISCRETO. La digitalizzazione comporta una frammentazione dei dati reali in un numero più o meno grande di elementi (nel caso delle immagini digitali sono detti PIXEL). 
    • Maggiore è il loro numero complessivo, maggiore è il loro numero nell’unità di misura considerata (cm o pollice quadrati), maggiori saranno le informazioni (migliore sarà la qualità della campionatura) e quindi in generale migliore sarà la qualità dell’immagine:
      • a parità di altri fattori che entrano in gioco, come la qualità delle lenti, le caratteristiche del sensore digitale, degli algoritmi di conversione, la Profondità di colore e la gamma dinamica.
      • la GAMMA DINAMICA da la misura della capacità di un sensore (nonché della nostra stessa percezione visiva fisiologica) di “leggere” e di registrare simultaneamente le informazioni nelle zone di alte luci e delle ombre.
        • Normalmente la gamma dinamica di una scena è più estesa delle nostre capacità percettive. Lo stesso dicasi per quanto riguarda i materiali fotosensibili (pellicole, lastre, carta fotografica, ecc.) e i sensori di fotocamere, viodocamere e cineprese digitali.
        • Molti apparecchi fotografici hanno una modalità HDR: “A ogni scatto, la fotocamera esegue due scatti con esposizioni diverse e li combina per preservare i dettagli nelle ombre e nelle alte luci nelle scene a contrasto elevato” (Nikon).
      • È una fondamentale caratteristica negli scanner destinati alla digitalizzazione di originale trasparenti (diapositive e fotocolor).
      • Attualmente sono impiegate tecnologie dette HDR sia nelle fotocamere che negli scanner per estendere in modo estremo la gamma dinamica delle immagini.
        • Ci sono software per scanner in grado produrre e di gestire digitalizzazioni in HDR, ampliando notevolmente la gamma dinamica ottica del dispositivo.
        • Photoshop implementa un flusso di lavoro per la modalità HDR.
  2. DEFINIZIONE = parliamo di definizione di una immagine digitale in relazione al numero di pixel che costituiscono l’altezza del quadro (quadro = il rettangolo o talvolta il quadrato che costituisce la cornice dell’immagine).
    • la definizione è indicata da un numero che riferisce circa l’altezza in PX del quadro (verticale) seguita generalmente dalla letta “p” = progressivo oppure “i” = interlacciato. Seguono le più comuni tipologie di quadro video (normalmente riferito alla televisione):
      • 360p (Low definition television (LDTV) = 360 x 480 px
      • 480p (Enhanced-definition television (EDTV) = 480 x 720 px
      • 720p HDTV (Ready) = 720 x 1280 px
      • 1080p HDTV (Full) = 1080 x 1920 px
  1. PPI = PIXEL per POLLICE Esprimono la risoluzione di un’immagine digitale. 
    • POLLICE = Unità di Misura; un pollice (inch) equivale a 25,4 mm.
  2. PROFONDITÀ DI COLORE = esprime la capacità di un dispositivo di input (fotocamera, scanner, ecc) o di output (monitor), di catturare (o visualizzare nel caso dei monitor) i colori con un certo grado di accuratezza, ovvero di fedeltà all’originale
    • La Profondità di Colore è una delle due caratteristiche fondamentali di ogni immagine raster (essendo l’altra la Risoluzione = PPI) e consiste nella quantità di informazioni assegnate a ciascun pixel che costituisce l’immagine, espressa dal dall’acronimo BPP = Bit Per Pixel.
    • Essendo il bit l’unità minima di informazione e di spazio di memoria in uso negli elaboratori digitali, il numero di BPP da conto della quantità di memoria assegnata da ciascun pixel e quindi si comprende che maggiore sono i BPP maggiore sarà il peso dell’immagine a parità di risoluzione (pixel per pollice2) e di definizione (pixel totali che compongono l’immagine).
  1. 1 bit = 21 = bianco-nero
  2. 2 bit = 22 = 4 colori
  3. 4 bit = 24 = 16 colori
  4. 8 bit = 28 = 256 colori
    • Una tavola a 256 colori può essere prodotta a partire da un originale di a colori qualunque genere (tav.1). Le informazioni di colore vengono ridotte campionando i colori dell’originale.
      ——————————————————————————————————————————
      Photoshop rappresenta uno standard in fatto di applicativi di grafica raster. La denominazione di METODO la troviamo come sottomenù del menù IMMAGINE (IMMAGINE>Metodo):
Tav. PHOTOSHOP – IMMAGINE>Metodo

Nel menù Metodo RGB, CMYK sono in realtà SPAZI DI COLORE, per così dire, “generici”. RGB e CMYK sono denominazioni solo indicative, perché – come vedremo nel corso dei nostri approfondimenti sulla grafica raster mediante Photoshop – devono essere precisati come Spazi di lavoro dal Menù Modifica (MODIFICA>Impostazioni colore):

Tav. Finestra Impostazioni colore
Tav. L’Utility Color Sync di MacOs offre la possibilità di osservare (e anche di confrontare) i Profili di colore installati nel sistema. In questa illustrazione vediamo a confronto Adobe RGB 1998 e sRGB IEC6 1966-2.1

(Questi argomenti sono trattati più approfonditamente in altri articoli del sito)

  1. I METODI COLORE Scala di Colore e Scala di Grigio adottano Tavole a 8 bit;
    • Con Photoshop, si può impostare un’immagine a 8 bit in Scala di grigio dal Menù Immagine (IMMAGINE>Metodo: Scala di grigio). Il solo Canale presente di questo Metodo è K (il Nero) e l’immagine potrà consistere al massimo di 256 gradazioni di grigio che potranno comprendere – o meno – il Bianco e il Nero. Al valore 0 corrisponde il Nero; al valore 100 il Bianco.
    • Si può impostare una immagine a 8 bit in Scala di colore (IMMAGINE>Metodo: Scala di colore).

Tav. Immagine in Scala di grigio (8 bit = 256 livelli)
Tav. Immagine in Scala di colore (8 bit = 256 colori; in questo caso si è usata una tavola dei colori Selettiva = selezionati dall’immagine RGB di partenza)

    • Il METODO COLORE RGB – basato sulle TINTE PRIMARIE della Sintesi Additiva – consiste di tre CANALI, ognuno dei quali rappresenta 8 bit;
      • complessivamente i tre Canali, RGB, rappresentano 224 =  16.777216 colori.
      • i Canali R = RED; G = GREEN; B = BLU visualizzano 255 Tonalità di Rosso, Verde e Blu, partendo da 0 = nero a 255 = il colore puro (alla sua massima SATURAZIONE);
      • I Canali RGB tutti alla massima saturazione (= 255) visualizzano il BIANCO; alla minima saturazione (= 0) visualizzano il NERO;
      • Qualunque combinazione di valori RGB (0-255) visualizza uno dei 16.777216 colori;
      • Qualunque dispositivo che visualizza il colore a 24 bit è definito TRUE COLORS;
      • Analogamente, le immagini a 24 bit sono dette True Colors. Questo significa che esse soddisfano la visione fisiologica. 

        (Il seguente Slide Show mostra la Finestra Colore in modalità Cursori RGB. Si possono notare a destra i livelli espressi dai numeri 0-255 e a sinistra il Campione di colore relativo. A 0-0-0 abbiamo il Nero.)
Tav. L’illustrazione mostra la Finestra Info di Photoshop in modalità di campionatura dei colori. Tenendo premuto il tasto Maiusc e facendo clic con lo strumento contagocce, nella finestra Info sono aggiunte sezioni – in questo caso – RGB per ciascun pixel campionato.


    • Il METODO COLORE CMYK, basato sulle TINTE SECONDARIE (dette anche Primarie della Sintesi Sottrattiva): Cyan Magenta Yellow  più il Nero, blaK.
    • Presenta 4 Canali, per cui (4 x 8 = 32 = BPP 32); pertanto i file trasformati in CMYK occupano più spazio di memoria.
    • In queso caso l’aumento di memoria impegnato non comporta una maggiore Profondità di colore, bensì un diverso modo di rappresentazione del colore.
    • Tale metodo è utilizzato soltanto per immagini destinate ai processi di stampa che utilizzano i Procedimenti di QUADRICROMIA
      • Ogni procedimento di stampa che utilizzi le 4 Tinte di PROCESSO (CMYK) è detto Quadricromia.
      • Le 4 Tinte primarie sottrattive sono sufficienti per l’ottenimento di una soddisfacente qualità nella resa dei colori nella maggior parte dei procedimenti di stampa industriali, come l’offset, rotocalco, flessografia, ecc.

        (Questi argomenti sono trattati più approfonditamente in altri articoli del sito)
    • Il Metodo CMYK è impiegato nella produzione di PROVE COLORE e per individuare le tonalità che non possono essere riprodotte nella stampa con le 4 Tinte di Quadricromia perché sono fuori dal GAMUT (Out of Gamut) dello spazio di colore CMYK. 
    • Nel caso dei processi di stampa che lo prevedono, è possibile aggiungere altre Tinte alle 4 primarie per ampliare il Gamut della periferica.
    • Il GAMUT indica i colori potenzialmente visualizzabili in un dato Spazio di colore.
      • Se consideriamo un dispositivo di Output con i Monitor per computer, essi possono avere Gamut estesi (Wide Gamut) per consentire un più accurato controllo dei colori nei processi di produzione professionali (post-produzione fotografica, pre-stampa, color correction e color grading in ambito audiovisivo).
    • Ogni dispositivo dispone di un proprio Spazio di colore.
      • Fermo restando che TUTTI I DISPOSITIVI DI OUTPUT LAVORANO NEL METODO RGB, segnatamente o nello Spazio di Colore detto sRGB o in quello ADOBE RGB 1998.
      • Gli Spazi di Colore RGB (sRGB o Adobe RGB 1998) non sono identici su qualsiasi periferica.
        • Scanner, Monitor, Proiettori, Fotocamere, ecc pur adottando questo o quello Spazio di Colore, visualizzano i colori differentemente in ordine alle tecnologie impiegate e alle specifiche introdotte dalle aziende produttrici. 
        • sRGB è lo Spazio di lavoro più usato in ambiente Windows, indicato soprattutto per la visualizzazione a schermo e applicazioni WEB;
        • Adobe RGB 1998 è lo Spazio maggiormente in uso in ambiente MacOs ed in ambito professionale. È più ampio dell’sRGB ed è più indicato per i flussi di lavoro di elaborazione e correzione del colore.
      • Entrambe gli Spazi di colore RGB sono detti DEVICE DEPENDENT, poiché la visualizzazione dei colori è – in un certo senso – una interpretazione di quel particolare dispositivo e può dipendere anche da condizioni particolari come lo stato di invecchiamento delle sue componenti hardware.
      • Ciascun dispositivo di output è caratterizzato da un suo specifico Profilo di colore che può essere calibrato e installato nel sistema (computer) sotto forma di file .ICC;
      • I dispositivi di output professionali vengono assoggettati ad un periodico processo di calibrazione mediante l’impiego di apparecchi hardware come Colorimetri o Spettrofotometri che provvedono a caratterizzarli producendo un Profilo di colore  sulla base di una LUT (Luck Up Table) di conversione tra lo Spazio di colore assoluto C.I.E L.a*b* e lo spazio RGB.
        • Anche gli scanner e le stampanti possono essere calibrate utilizzando dei Color Cecker per controllare la fedeltà nell’acquisizione (nel caso degli scanner) e nella stampa dei colori. 
    • Il METODO DI COLORE L.a*b* si riferisce ad uno spazio di colore ASSOLUTO, ovvero non dipendente dal device in uso. 
    • Lab è un Metodo molto efficace per effettuare elaborazioni sul colore che non sono attuabili nella modalità RGB.
    • Il Metodo L.a*b* identifica il colore mediante la variabile della Luminosità (L) e le due variabili a* (Verde.Rosso) e b* (Blu-Giallo), facendo riferimento allo Spazio di colore Assoluto C.I.E.
      • La Commissione Internazionale (C.I.E. = Commission Internationale de l’éclairage = Commissione Internazionale sull’Illuminazione) riunitasi per la prima volta nel 1931, sulla base di una serie di criteri scientifici, stabilì quali fossero le caratteristiche medie e i limiti della percezione visiva umana. Da ciò gli scienziati ricavarono il primo Spazio di Colore Matematico secondo gli assi cartesiani XYZ. 
    • Ciascun colore, nello Spazio CIE, è identificato con le tre coordinate spaziali XYZ. 
      • In pratica, un dato colore RGB visualizzato su una data periferica viene rappresentato da tre numeri secondo le coordinate XYZ. Gli stessi tre numeri su una diversa periferica corrisponderanno con tutta probabilità ad un colore più o meno simile ma non identico. Passando per lo spazio L.a*b*, i primi tre numeri corrispondenti a quel dato colore, vengono convertiti in altri tre che identificano in modo assoluto quel dato colore nello Spazio CIE-LAB che costruisce una Tavola di conversione dei colori (LUT = LuckUpTable).
        Su di una diversa periferica, anche se con numeri diversi sarà individuato esattamente lo stesso colore. Avremo così che, pur con numeri diversi, le due periferiche (ad esempio due diversi monitor) visualizzeranno lo stesso colore.
        • Quello che si vuole è di poter visualizzare correttamente i colori dell’originale e non che la periferica interpreti rigidamente dei numeri mostrandoci colori diversi. 
        • L’effetto della profilatura è che a numeri diversi corrispondano gli stessi colori (e non che a numeri uguali corrispondano colori diversi).

          ———————————————————————————————————————–
  1. UTILITÀ DI UNA PROFONDITÀ DI COLORE RGB maggiore degli 8 bit per canale:
  1. Possiamo assumere che 16.777216 (24 bit) siano più che sufficienti per visualizzare in modo soddisfacente una qualunque immagine a colori digitale, su di un display. 
  2. Tuttavia, i dispositivi di visualizzazione nell’ambito grafico e della fotografia professionale detti Wide Gamut, hanno una PdC > 24bit (tipicamente 30/32 bit);
  3. Dobbiamo considerare che i sensori delle fotocamere e dei dispositivi di digitalizzazione (scanner), sono in grado di acquisire immagini con una PdC > di 24 bit (tipicamente, da 36 a 48 bit = da 12 a 16 bit per canale RGB);
  4. la maggiore campionatura consente ai sensori digitali un livello di raffinatezza nella rappresentazione dei colori, e quindi alle immagini prodotte di visualizzare le tonalità di colore più “simili”, ovvero più “fedeli”, a quelle contenute nell’originale.
    Ad esempio:
    • Poniamo di voler realizzare un disegno a pastello di un vaso di fiori. Se utilizziamo una scatola da solo 12 matite colorate, necessariamente la nostra rappresentazione dei colori sarà molto approssimativa. 
    • Maggiore è il numero dei colori a nostra disposizione maggiore sarà la possibilità di rappresentare tonalità simili a quelli dell’originale scegliendo dal nostro assortimento il colore più preciso.
    • Questo perché, anche se il numero dei colori che usiamo nel disegno fosse comunque non maggiore di dodici, nel caso di un assortimento molto ampio, avremmo la facoltà di scegliere le tonalità più vicine a quelle dell’originale. 
Tav. Scatola da 12 Pastelli…
Tav. Scatola da 120 Pastelli…
  1. ASPECT RATIO = Rapporto d’aspetto (del quadro) base x altezza. 
    • I DAR (Dispaly Aspect Ratio) più diffusi sono il 16: 9 e il 4: 3;
    • se prendiamo ad esempio il 1080p (cosiddetto FullHD), dati 1080 pixel verticali, per un DAR 16: 9 avremo una base di 1920 px (1080 : 9 x 16);
      per un DAR 4: 3 avremo una base di 1440 px (1080 : 3 x 4).
    • Nei sistemi video sono in uso anche pixel di forma rettangolare con aspect ratio che vanno da 1.33:1 a 2; 1. In questo caso si parla di PAR (Pixel Aspect Ratio)
    • In pratica, nel caso di video Full HD 1080 x 1440, sono considerati PIXEL RETTANGOLARI con un PAR di 1,33:1, per cui il DAR del quadro resta 16: 9.
    • Con un PAR 1:1 (pixel quadrati), il quadro sarà 4:3 (1080 x 1440 px).

[ANTEPRIMA ADOBE MAX: https://www.youtube.com/watch?v=nA9vXygpuT0&feature=emb_logo%5D

Pubblicato in appunti, CLASSI V, tecnologia dei processi di produzione | Contrassegnato , , , , , , , , , , , , , , , , , , , , , , , , , | Lascia un commento

L*a*b*> Workshop_01 (introduzione)

Il METODO L*a*b è indipendente dal dispositivo (sensore, display, ecc), non applica ne la sintesi additiva (RGB) né quella sottrattiva (CMY).
I valori numerici Lab – rilevabili con lo strumento Contagocce per ciascun pixel che compone l’immagine digitale – vanno ad individuare nello Spazio CIE Lab (tav.1), ciascun colore descrivendolo secondo le tre coordinate: L= Luminosità (bianco/nero), a = Verde/Rosso e b = Blu/Giallo.


Spazio colore Lab

Tav.1: Spazio di Colore L*a*b* (notiamo come i valori positivi corrispondano al Rosso e al Giallo, mentre i valori negativi, al Blu e al Verde.

 


Nel Selettore Colori di Adobe Photoshop (tav.4), il cursore L va da 0 a 100; i valori dei cursori  a e  b  vanno da +127 a -128.

Il Metodo Lab è impiegato dai sistemi di gestione del colore come spazio colorimetrico di riferimento per convertire un colore da uno spazio all’altro (ad esempio da RBG a CMYK).

Per le sue caratteristiche intrinseche, il metodo Lab consente inoltre di elaborare il colore delle immagini digitali con risultati in molti casi non ottenibili diversamente.


START

Tav.2  Partendo da una immagine RGB scegliamo FINESTRA>Metodo: Lab

Colore Lab

Tav.3

Finestra Selettore Colori

Tav.4  Finestra Selettore colore (colore di primo piano)

FINESTRA>Canali

Tav.5 FINESTRA>Canali (la finestra Canali ci permette di lavorare sulle singole componenti L-a-b

Lab solo Luminosità

Tav.6 canale della Luminosità

Lab solo b

Tav.7 canale b

Lab solo a

Tav.8 canale a

Lab Luminosità+a

Tav.9 canale L + a

Lab Luminosità +b

Tav.10 canale L + b

Lab a+b

Tav.9 canale a + b (evidenziamo la sola componente cromatica, senza la scala delle densità neutre)

Lab Luminosità+a+b

Tav.11 Lab completo delle tre componenti

FINESTRA>Colore:Cursori Lab

Tav.12 FINESTRA>Colore (scegliamo Cursori Lab)

FINESTRA>Info

Tav.13 FINESTRA>Info + Barra degli Strumenti: Strumento Contagocce


Utilizzando lo strumento contagocce possiamo campionare i colori della nostra immagine: 1) dalla finestra Selettore colore (tav.4); 2) dalla finestra Info  (tav.13);
3) dalla finestra Colore (tavole seguenti con esempi di campioni ricavati dall’immagine).

Questo slideshow richiede JavaScript.


In PRATICA:

  1. Apriamo un’immagine sulla quale vogliamo lavorare (o vogliamo esercitarci nell’uso del metodo Lab);
  2. Cambiamo il metodo colore da RGB a Lab (tav.3);
  3. FINESTRA>Livelli, poi Crtl (Cmd sul Mac) + J (duplica livello);
  4. Metodo di fusione Scolora;

    Medodo di fusione Scolora

    Tav.14 Scegli Metodo Scolora

    Scolora

    Tav.15  Aggiungi maschera vettoriale (maschera di livello)

    Risultato della sovrapposizione di Scolora

    Tav.16 Risultato della sovrapposizione dei livelli col metodo di fusione Scolora

  5. In basso nella finestra Livelli, scegliamo l’icona della Maschera vettoriale;
  6. IMMAGINE>Applica immagine: canale Luminosità, spuntiamo su Inverti (tav.17);

    FINESTRA>Applica Immagine-Canale Luminosità-Inverti

    Tav.17 Risultato del passaggio “6”

  7. Alt (Opt sul Mac) +clic sul Livello 1 per vedere la maschera di livello;

    Alt (opt)+clic per vedere la maschera di livello

    Tav.18 Maschera di livello

  8. Crtl (Cmd) + L (Valori tonali), portiamo i valori delle zone scure a 25 per dare dare maggiore densità alle ombre e scurire il cielo;
    Nella finestra Canali, clic sul canale Lab per tornare alla visualizzazione dell’immagine a colori.

    Valori tonali +25

    Tav.19 Valori tonali (25 nella casella a sinistra)

  9. Clic sull’icona Crea un nuovo livello di riempimento o di regolazione nella Finestra Livelli: scegliamo Curve.
  10. La finestra Curve Lab ci consente di intervenire indipendentemente sul canale L e sui canali a e b per controllare l’equilibrio cromatico e regolare i colori.
    Per aumentare la saturazione e il contrasto cromatico senza intervenire sull’equilibrio generale dei colori, è necessario che i due cursori in basso (quello nero a sinistra e quello bianco a destra) siano equidistanti dal centro (tav. 21 e 22 ed esempi).

    Curve-Luminosità

    Tav. 20 (Curve: Luminosità)

    Curve-b

    Tav.21 (Curve Canale a)

    Curve-a

    Tav.22 (Curve Canale b)

    Questo slideshow richiede JavaScript.

Pubblicato in classi III, CLASSI IV, CLASSI V, tecnologia dei processi di produzione | Contrassegnato , | 1 commento

Dal formato agli stampati: 1

  1. Il biglietto normalizzato misura esattamente 85 x 55 mm, come una carta di credito. Su questa misura è calcolata la tasca nel portafogli in cui inserire le carte e biglietti da visita.
  2. Partendo da questa misura, impostiamo un biglietto di formato ridotto che possa essere stampato su fogli ISO A3 o A4 col minimo di spreco di carta.
  3. Il formato potrebbe essere A8 = 74 x 52 mm che ci consentirebbe teoricamente di stampare 16 copie su A4 e 32 su A3.

    Schermata 2016-04-10 alle 19.35.44

    1) I formati ISO a partire da A4, sino all’A8

  4. Se avessimo uno sfondo grafico, avremo bisogno di un margine al vivo di almeno un millimetro, per cui il formato dovrebbe essere ridotto 72 x 50.

    Schermata 2016-04-10 alle 17.36.06

    2) Biglietto standard; formato A8-; Formato Aureo

  5. Volendo variare con un tocco di sapore classico, ma sempre attuale, possiamo ricavare da questo formato un rettangolo di proporzione Aurea. In questo caso, seguiamo le indicazioni della fig.2.

    A questo punto, prepariamo un foglio A4 con una gabbia predisposta per ricevere 16 copie del formato Aureo.

    Schermata 2016-04-10 alle 19.46.09

    3) Foglio di stampa A4 per l’impaginazione di 16 copie del biglietto personalizzato di proporzione aurea

  6. Passiamo alla progettazione del biglietto. Vedremo 3 esempi, due con logo ed uno senza per imparare a lavorare su una griglia (reticolo strutturale), componendo in modo soddisfacente e vari elementi testuali e l’elemento iconico.

    Schermata 2016-04-10 alle 18.33.49Schermata 2016-04-10 alle 18.52.27

    Schermata 2016-04-10 alle 19.10.18

    4) Scegliamo questo come layout definitivo del biglietto da vistita

  7. A questo punto, non ci resta che impaginare il nostro progetto collocando 16 multipli sul foglio di stampa.

    Schermata 2016-04-10 alle 19.14.26

    5) Foglio di stampa impaginato con Adobe Illustrator


     

    LUPA

    Questa è la foto a bassa risoluzione dalla quale è stato ricavato l’esempio ipotetico (e alquanto improbabile!) di logo del buon Gaio Sempronio

  8. Vediamo come ottenere un disegno vettoriale da una immagine a bassa risoluzione, usando Photoshop e poi Illustrator.
    • Apriamo la foto in Photoshop e usiamo lo strumento di selezione rapida per isolare il soggetto dallo sfondo (scontornatura);
    • Miglioriamo il bordo della selezione con Migliora bordo, impostando un raggio avanzato di 0,5, una sfunatura di 1 px e portando il contrasto a 50.
    • Dalla finestra Migliora bordo, nella sezione in basso scegliamo di aprilre la selezione come un nuovo file.

      Schermata 2016-04-10 alle 20.01.00

      7) La foto originale, prima della scontornatura

      Schermata 2016-04-10 alle 20.05.09
      8) La finestra Migliora bordo in Photoshop

    • In Illustrator, creaimo un nuovo documento A4 e inseriamo il file di Psd creato con Photoshop.
    • Scegliamo Ricalco immagine dalla Barra in alto e poi l’opzione Silhouette.

      Schermata 2016-04-10 alle 20.08.36

      9)Inserita la foto, scegliamo Ricalco immagine e dal menù a discesa Silhouette

      Schermata 2016-04-10 alle 20.08.53

      10) Questo è il risultato

  9. Per realizzare le fasce di lineette verticali nel biglietto da visita, si è utilizzato lo strumento linea per disegnare un breve linea verticale, tenendo premuto il tasto per le maiuscole. Quindi, si è copiata la prima linea tenendo premuto il tasto option (ALT) e spostando di pochissimo la seconda linea dalla prima, avendo cura di allienearle pefettemente inb orizzontale.
    Fatto questo, con il tasto cmd + D si sono realizzate tante altre linee con lo stesso spostamento della prima, tutte pefettamente allineate.

    Schermata 2016-04-10 alle 20.19.57

    11) Dettaglio del biglietto con la fascia di lineette orizzontali

    Schermata 2016-04-10 alle 20.21.05

Pubblicato in classi III, Esercitazioni, progettazione multimediale, tecnologia dei processi di produzione | Contrassegnato , , , , , , , | Lascia un commento

PERCORSI: 4

PERCORSI>.150.jpegPERCORSI>.154.jpegPERCORSI>.159.jpegPERCORSI>.163.jpegPERCORSI>.165.jpegPERCORSI>.167.jpegPERCORSI>.171.jpegPERCORSI>.176.jpegPERCORSI>.181.jpegPERCORSI>.187.jpegPERCORSI>.189.jpegPERCORSI>.192.jpegPERCORSI>.198.jpegPERCORSI>.201.jpegPERCORSI>.205.jpegPERCORSI>.208.jpegPERCORSI>.211.jpegPERCORSI>.218.jpegPERCORSI>.221.jpegPERCORSI>.223.jpegPERCORSI>.224.jpeg

Pubblicato in CLASSI V, progettazione multimediale, tecnologia dei processi di produzione | Contrassegnato , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , | Lascia un commento

FOTOGRAFIA di PICCOLO FORMATO

  1. APPARECCHI A TELEMETRO formato 35 mm:
    Nel 1911 l’ingegnere Oskar Barnack che lavorava nell’azienda di Ernst Leitz, iniziò progettare un modello di fotocamera in grado di utilizzare la pellicola 35 mm a doppia perforazione, quella prodotta per le riprese cinematografiche.

    Ur-Leica-Firma-Leitz

    Leitz, Prototipo UR, 1914

  2. Nel 1914 Barnack realizzò il prototipo UR, una fotocamera 35 mm con otturatore a tendine orizzontali disposto davanti al piano focale, che poteva ospitare un piccolo astuccio di metallo a tenuta di luce con dentro una striscia di pellicola che con questo apparecchio produceva fotogrammi di 24 x 36 mm – con un rapporto base per altezza di 3 : 2. Nasceva così l’antenata delle fotocamere Leica e di tutti gli apparecchi di piccolo formato.
    Formato che per tutti sarebbe presto diventato per antonomasia il “Formato Leica”.
  3. La prima fotocamera Leica  viene posta in commercio nel 1925. Si trattava della Leica I con  ottica fissa di 50 mm e mirino galileiano per la composizione dell’immagine esterno al corpo macchina.
  4. Nel 1930 nasceva la Leica I con ottica intercambiabile con attacco a vite 39×1 e un dispositivo a telemetro non accoppiato, per la messa fuoco.

    Leica_I

    Leica I, 1925

  5. Dopo la Seconda Guerra Mondiale, con la terza generazione di Leica – molto più evolute e perfezionate delle precedenti – questa fotocamera sarà l’apparecchio preferito dei fotoreporter di tutto il mondo.
  6. Nel 1954 con la M3 abbiamo la prima Leica a presentare l’innesto ottiche a baionetta. Questo modello ha un mirino grande e molto luminoso, con correzione della parallasse e quadri di campo visibili internamente per le focali 50, 90 e 135 mm. I tempi dell’otturatore sono in progressione geometrica e l’esposimetro incorporato è accoppiato ai tempi.

    unnamed

    Leica M3, 1954

     

  7. IL TELEMETRO.
    Si tratta di un congegno che grazie ad un più o meno sofisticato sistema ottico, consente la messa fuoco dell’obiettivo ad esso accoppiato mediante un mirino nel quale i contorni  dell’immagine appaiono sdoppiati quando non è correttamente a fuoco, mentre quando è a fuoco l’immagine appare nitida.
  8. VANTAGGI: 
    1. la notevole maneggevolezza. 
    2. la luminosità del mirino. 
    3. la relativa silenziosità. 
    4. compattezza delle ottiche
    5. obiettivi di tipo simmetrico, di più semplice costruzione ottica e generalmente di qualità elevata
  9. SVANTAGGI:
    1. lo scarso controllo della composizione
    2. l’errore di parallasse
    3. la ridotta gamma di ottiche
    4. le difficoltà d’impiego con ottiche grandangolari estreme e teleobiettivi molto spinti
       
  10. APPARECCHI REFLEX monobiettivo:
    Nel 1936 la Kine Exakta fu il primo apparecchio di formato Leica ad essere dotato di uno specchio posto dietro l’innesto delle ottiche che rimandava in alto l’immagine prodotta dall’obiettivo, dove un mirino a pozzetto consentiva la composizione dell’inquadratura.
    Gli apparecchi reflex mono obiettivo, danno il vantaggio di osservare direttamente quanto inquadrato dall’ottica montata sulla fotocamera. Le fotocamere moderne reflex di livello professionale hanno un mirino in grado di mostrare il 100% dell’inquadratura. Quelle più amatoriali mostrano percentuali generalmente superiori al 90%.

    kine-exakta

    Exakta kine, 1936

  1. La prima REFLEX ad essere dotata di PENTAPRISMA fu la Rectaflex, una  fotocamera prodotta in Italia dal 1947 al 1955.

    RECTAFLEX

    Rectaflex, 1947

  2. Il principale vantaggio degli apparecchi reflex monoculari consiste nel totale controllo della composizione, essendo l’inquadratura la diretta proiezione dell’immagine formata dall’obiettivo.
    Inoltre, gli apparecchi di piccolo formato sono progettati per essere utilizzati in modo da tenere sempre l’occhio sul mirino, con tutti i comandi posti in posizione per essere azionati con le dita.

    1959 schede contarex

    Spaccato di una Contax Contaflex

  3. IL PENTAPRISMA e il PENTASPECCHIO.
    Questo congegno ottico originariamente costituito da un prisma di vetro con facce a specchio, consente il completo raddrizzamento dell’immagine riflessa dallo specchio nei sistemi fotografici di tipo reflex.


    Pentaspecchio

    Pentaprisma a specchi

    L’immagine formata dall’obiettivo e proiettata sul piano focale, appare capovolta. Lo specchio reflex rimanda al mirino l’immagine raddrizzata ma a lati invertiti: ciò che si trova a destra si vede a sinistra e viceversa.
    Il pentaprisma risolve questo problema, invertendo il percorso della luce in modo da restituire una visione naturale dell’immagine inquadrata dall’obiettivo.

  4. La presenza del pentaprisma rende necessaria l’inquadratura a livello dell’occhio, molto comoda con gli apparecchi di picciolo formato per i quali costituisce un ulteriore elemento di vantaggio. Negli apparecchi di medio formato, soprattutto per i il 6×7 e 6×9 di impiego professionale, il pentaprisma costituisce un accessorio utile ma non indispensabile.
  5. Il pentaprisma è spesso sostituito da un più economico e leggero, ma meno luminoso, sistema di tre specchi.
  6. IL TIRAGGIO
    Il tiraggio è la misura della distanza tra il punto nodale dell’obiettivo – dove i raggi ottici incrociano il loro percorso – e il piano focale – dove si forma l’immagine.
    Generalmente, un obiettivo simmetrico – costituito da due gruppi ottici disposti simmetricamente, uno anteriore e uno posteriore – con la messa a fuoco posta sull’infinito, ha una lunghezza focale pari alla misura del tiraggio. Per cui, un obiettivo, poniamo da 50 mm, con messa a fuoco all’infinito avrà il punto nodale a 5 cm dal piano focale.
  7. La MACCHINA FOTOGRAFICA ELEMENTARE è un apparecchio stenopeico o anche dotato di un sistema di lenti, costituito da una camera scatolare con un foro che funge da obiettivo – o da una piastra su cui si avvita l’obiettivo – e una parte posteriore, predisposta per accogliere un foglio di carta o una lastra o una pellicola fotosensibile contenuta in un telaio a tenuta di luce (chassis) dotato di ante rimovibili.

    FOTOCAMERA_ELEMETARE_schema

    Schema di una camera fotografica elementare

  8. La luce riflessa dal soggetto, viene raccolta dal foro – o dall’obiettivo – dove i raggi ottici si incrociano e proiettano un’immagine nitida su di un piano posto alla giusta distanza, in relazione alla distanza a cui si trova il soggetto inquadrato.

    FORMAZIONE_immagine

    Come si forma l’immagine

  9. L’apparecchio reflex è più complesso rispetto alla macchina fotografica elementare. Data la presenza dello specchio inclinato, la distanza del piano focale – dove si trova il materiale sensibile o il sensore degli apparecchi digitali – dal piano d’innesto delle ottiche, distanza che costituisce il tiraggio, non consentirebbe normalmente di utilizzare obiettivi con lunghezze focali molto corte di obiettivi simmetrici, nei quali il gruppo ottico posteriore entra completamente nel corpo della camera.

    Spaccato_REFLEX.jpg

    Spaccato di una fotocamera reflex “analogica”

  10. Le reflex digitali, sin dalla loro prima comparsa sono sostanzialmente molto simili agli apparecchi tradizionali a pellicola. In un primissimo momento fecero la loro comparsa dei dorsi digitali che si potevano adattare alle macchine reflex a pellicola, ma non ebbero successo per il loro costo eccessivo e la loro complessità d’uso – oltre che per le modeste prestazioni e per la delicatezza – rispetto al vantaggio di poter utilizzare il proprio apparecchio in possesso. E questo perché, in buona sostanza, il costo dell’apparecchio digitale è in gran parte determinato dal costo del sensore e degli altri dispositivi hardware, nonché dell’apparato software necessario per la gestione delle funzioni.
  11. Il SENSORE DIGITALE.

    Un+sensore+CCD+per+fotocamera+digitale.jpg

    sensore CCD

    I sensori digitali, allo stato attuale, sono generalmente del tipo CMOS (complementary metal-oxide semiconductor), circuiti nati per diversi scopi, adattati e sviluppati in seguito per funzionare da sensori per apparecchiature fotografiche e scanner.


    CMOS.jpg

    Sensore CMOS


    La tecnologia dei sensori fotografici e video era (ed è ancora in parte) del tipo CCD (Charge-Coupled Device), molto sofisticata e costosa, aspetti questi che ne hanno ridotto l’impiego e agli inizi della fotografia digitale limitato le dimensioni fisiche e la risoluzione negli apparecchi di fascia consumer e prosumer.
    I sensori CCD sono circuiti specifici, che svolgono unicamente la funzione di reagire alla luce e producono di base una qualità d’immagine molto elevata. Negli ultimi dieci anni le caratteristiche dei CMOS hanno raggiunto prestazioni paragonabili a quelle dei CCD, ma in virtù del costo di produzione più basso, hanno permesso la realizzazione di sensori di maggiori dimensioni con un livello di risoluzione molto elevato, mai raggiunto dai CCD.

  12. IL RUMORE DIGITALE
    Il rumore dell’immagine è una variazione casuale (non presente nell’oggetto fotografato) della luminosità o delle informazioni sul colore in immagini. Può essere prodotto dal sensore e dai vari circuiti di una fotocamera.
  13. LA DEFINIZIONE
    Esprime la quantità totale (o assoluta) di informazioni ( ovvero, dei pixel) che compongono il raster (il reticolo di pixel) che costituisce l’immagine digitale.
    Un sensore 4/3 da 12 megapixel (12 milioni di pixel) è formato da un raster di 4000 x 3000 pixel.
    Alla risoluzione di Stampa [300 ppi = pixel per inch (= pollici)] otteniamo un’immagine per la stampa di cm 33,87 x 25,4;
    alla risoluzione di 72 ppi, l’immagine è invece di cm 141,11 x 125,83.
    Poiché la definizione dell’immagine resta la stessa in entrambe i casi, possiamo attenderci che, una volta stampate le due immagini, osservate da una certa distanza otteniamo la stessa impressione (a parità di qualità di stampa).
  14. LA RISOLUZIONE
    È la quantità di pixel per pollice quadrato di una immagine digitale. Ovvero esprime la quantità di informazioni presenti in ogni porzione dell’immagine pari ad un pollice (o più di rado ad un centimetro) quadrato.


    Schermata 2020-03-16 alle 18.00.13Schermata 2020-03-16 alle 18.00.27Schermata 2020-03-16 alle 18.00.43Schermata 2020-03-16 alle 18.01.19Schermata 2020-03-16 alle 18.01.28Schermata 2020-03-16 alle 18.01.41


    La risoluzione non riferisce in modo diretto circa la qualità dell’immagine poiché la quantità dei pixel presenti può essere aumentata ricampionando l’immagine (l’operazione consiste nell’associare ai pixel originali dei loro cloni, mediate un algoritmo che risponde ad un determinato criterio). 

  15. La definizione (e la risoluzione) di un sensore fotografico non esprime compiutamente le sue caratteristiche qualitative. Vi sono due variabili tecnologiche che incidono molto sulla qualità delle immagini che potremo ottenere: la PROFONDITÀ di CLORE e la GAMMA DINAMICA.
  16. LA PROFONDITÀ DI COLORE
    Indica sia il numero di bit usati per indicare il colore di un singolo pixel, in un’immagine bitmap, sia il numero di bit usati per ogni componente di colore di un singolo pixel.
    Tipicamente, un’immagine digitale RGB è costituita da 8 bit per canale (24 bit), per un totale di 16,7 milioni di informazioni di colore. Convenzionalmente si parla di True Color, ovvero della quantità sufficiente per ottenere una soddisfacente resa percettiva dei colori reali. Tuttavia, la quantità di informazioni in input (in ingresso) per avere una resa fedele dei colori del soggetto, deve essere maggiore. In tal modo, gli algoritmi software possono selezionare in output (in uscita) dalla ridondanza, le informazioni ottimali, quelle più prossime ai valori ottimali. I sensori fotografici attuali producono una profondità di colore tra i 12 e 16 bit per canale (36 / 48 bit RGB), potendo catturare fino a miliardi di colori.
  17. LA GAMMA DINAMICA
    Definisce la differenza tra il minimo ed il massimo valore di luminosità che un sensore digitale riesce a registrare simultaneamente. Esprime quindi la capacità di un dispositivo di produrre informazioni nelle zone delle alte luci e nelle zone d’ombra di un soggetto e quindi di cogliere più o meno dettagli nelle parti più critiche dell’immagine.I fotografi usano il termine “gamma dinamica” intendendo:
    1) La gamma di luminanza di una scena da fotografare.
    2) I limiti del campo di luminanza che una determinata macchina fotografica digitale o a pellicola può catturare.
    3) La gamma di opacità delle immagini dei film sviluppati.
    4) Il “campo di riflessione” di immagini su carte fotografiche.

La gamma dinamica dei sensori utilizzati nella fotografia digitale (14 stop) è per ora (2015) inferiore a quella dell’occhio umano (24 stop) e generalmente non così ampia come quella dei mezzi chimici fotografici (18 stop). Nel dominio delle immagini digitali, gli algoritmi sono stati sviluppati per mappare l’immagine differente in ombra e nelle luci per distribuire meglio il campo di illuminazione attraverso l’immagine. Queste tecniche sono note come tono di mappatura locale, e di solito comporta il superamento della gamma dinamica limitata della matrice dei sensori, combinando selettivamente esposizioni multiple della stessa scena per trattenere il dettaglio nelle zone chiare e scure. La più grave limitazione della gamma dinamica in fotografia non può comportare la codifica, ma piuttosto la riproduzione, per esempio, una stampa su carta o sullo schermo del computer.
I filtri di densità neutri graduati sono usati per ridurre il campo dinamico di luminanza della scena che può essere catturato su pellicola fotografica (o sul sensore di una fotocamera digitale): Il filtro è posizionato di fronte alla lente al momento dell’esposizione; la metà superiore è scura e la metà inferiore è chiara e l’area scura viene posta sopra in regione dell’alta intensità di una scena, come il cielo. Il risultato rende un maggiore dettaglio nelle ombre e nelle aree di scarsa illuminazione.
(fonte Wikipedia)

  1. APPARECCHI MIRRORLESS
    Le mirrorless sono apparecchi non-reflex ad ottica intercambiabile.
    Non avendo lo specchio reflex hanno un tiraggio molto ridotto, aspetto questo che di per se rappresenta un vantaggio, consentendo a questi apparecchi di avere dimensioni più compatte, minore peso e di avere anche ottiche grandangolari di costruzione meno complessa dei retrofocus necessari alle reflex. Inoltre, l’assenza dello specchio fa si che questi apparecchi siano più silenziosi e producano minori vibrazioni nel momento dello scatto, consentendo di minimizzare il micro mosso.
    Le mirrorless, nate ufficialmente nel 2004, per molto tempo sono state poco apprezzate dai fotografi a causa di una serie di problemi alcuni connessi proprio all’assenza del sistema reflex. 

    1. il mirino elettronico, quando presente, restituisce una visione poco naturale ed era affetto da un (minimo) ritardo rispetto alla visione della scena realmente inquadrata; alcune aziende hanno montato un mirino ottico simile a quello delle fotocamere classiche a pellicola, o un mirino ibrido ottico-elettronico (Fujifilm);
      bisogna anche osservare che il mirino elettronico delle mirrorless più recenti restituisce una qualità d’immagine elevatissima, con una luminosità maggiore rispetto al mirino reflex. Inoltre, l’immagine elettronica mostra un risultato più vicino al risultato finale dell’immagine ripresa se posta a confronto con l’immagine ottica  del mirino reflex.
    2. la messa fuoco è più critica e generalmente più lenta rispetto alle reflex perché si serve di tecnologie più complesse ed imprecise;
    3. la durata della batteria, sia per le dimensioni ridotte che per la necessità di alimentare mirino elettronico e/o il display, risulta minore rispetto a quella degli apparecchi reflex.

      Reflex - Mirrorless

      Spaccato a confronto di un apparecchio reflex e di una mirrorless digitali.

Bisogna osservare che le mirrorless di ultima generazione delle principali aziende (Sony, Panasonic, Fujifilm, Nikon e Canon) hanno proposto soluzioni tecnologiche che hanno superato la maggior parte dei problemi e anzi hanno sviluppato prodotti che risultano superiori alle migliori reflex digitali, tanto che attualmente (2020) moltissimi professionisti stanno abbandonando le reflex a favore di sistemi mirrorless.

Bisogna anche considerare che in linea di massima le ottiche delle  mirrorless sono più leggere e compatte ed economiche, soprattutto nei sistemi APS e micro 4/3.
Inoltre, dato il ridotto tiraggio, le mirrorless di qualunque formato, con opportuni adattatori più o meno sofisticati, possono utilizzare obiettivi concepiti per le reflex con la maggior parte degli attacchi esistenti.


Salvo diversa indicazione, si intende che i testi sono dell’autore 

Pubblicato in CLASSI IV, CLASSI V, tecnologia dei processi di produzione | Contrassegnato , , , , , , , , , , , , , , , | Lascia un commento

Standard HD

Con la sigla 4K viene identificato il nuovo standard del cinema digitale; questo nuovo formato, standardizzato dalla DCI (Digital Cinema Initiative – costituita dai più illustri studi cinematografici di Hollywood) ha diversi vantaggi: le immagini hanno un dettaglio molto più elevato, ben quattro volte superiore al formato 2K e una qualità equivalente alla miglior pellicola cinematografica, inoltre il formato digitale permette il monitoraggio in definizione reale 4K sul set, oltre che migliorare il workflow e la velocità della post-produzione.

Il formato 4K, a differenza dei formati HD 1080 e HD 720 che sono così chiamati per la risoluzione verticale del fotogramma, prende il nome dalla sua risoluzione orizzontale che è esattamente di 4096 pixel. L’altezza del fotogramma, invece, è variabile in base al tipo di aspet-ratio dello stesso. Sotto il nome 4K vengono raggruppate, infatti, diverse risoluzioni; la tabella seguente mostra le dimensioni dei diversi tipi di aspet-ratio del formato 4k.

La sigla Ultra HD o UHD (Ultra High Definition), invece, è stata ideata dall’associazione CEA (Consumer Electronic Association) di cui fanno parte i più importanti produttori di display tra cui Panasonic, Samsung, Toshiba, Philips e LG per indicare i monitor e le TV che utilizzano pannelli con risoluzione minima di 3840 x 2160 pixel (ovvero quattro pannelli HD da 1920 x 1080 affiancati). Solo Sony non ha utilizzato la sigla Ultra HD per i suoi prodotti, preferendo utilizzare la sigla 4K, anche se i suoi pannelli hanno comunque la risoluzione di 3840 x 2160 pixel. Nell’ambiente consumer, pertanto, le sigle 4K e Ultra HD indicano la stessa cosa; tanto per creare maggiore confusione nel consumatore non è raro trovare entrambe le sigle indicate sullo stesso prodotto.

La differenza, a parità di pixel in altezza, tra il formato Ultra HD televisivo e il 4K cinematografico corrisponde a circa il 7% della dimensione orizzontale, vedi fig. 2 – questa piccola differenza permette di riprodurre il formato 4K su display Ultra HD introducendo due piccole bande nere, sopra e sotto l’immagine, oppure permettere una visione a schermo intero ritagliando poco più del 3% i bordi sinistro e destro.

Distanza di visione

A differenza del formato Full HD dove è necessario stare ad una distanza massima di 3 volte l’altezza dello schermo per poter apprezzare i dettagli dell’immagine, per il formato Ultra HD è necessario posizionare lo schermo TV ad una distanza pari a 1,5 volte l’altezza dello schermo davanti allo spettatore      consentendo allo stesso una maggior immersione nell’esperienza multimediale.

Lo spettatore che si posiziona ad una distanza maggiore di 1,5 volte l’altezza dello schermo non riuscirà ad apprezzare le differenze tra un’immagine Full HD e una Ultra HD.

Per il cinema digitale, invece, l’utilizzo del nuovo formato 4K permette di disporre le poltrone “a stadio”, ovvero con un’inclinazione più elevata, con conseguente aumento del campo visivo dello spettatore e un ampliamento di posti disponibili a parità di superficie della sala, garantendo quindi allo spettatore un’esperienza emotiva molto più coinvolgente.I sistemi di proiezione digitale 4K evita agli spettatori seduti nelle prime file di intravedere alterazioni dei pixel, che sono invece evidenti nelle proiezioni in formato 2K.

Da pellicola a digitale

I film realizzati in pellicola vengono convertiti in digitale scansionando la pellicola 35mm e realizzando un file video cinematografico denominato DCP (Digital Cinema Package) che viene distribuito alle sale cinematografiche su hard disk per la proiezione al pubblico.

I file video cinematografici realizzati in 2K possono essere proiettati con un proiettore 4K che esegue una conversione automatica al nuovo formato.

I proiettori 2K, invece, riescono a proiettare file video cinematografici 4K utilizzando la tecnica dell’interpolazione, ovviamente limitando la qualità a quella del formato 2K.

I principali studi di produzione cinematografica hanno cominciato a convertire il catalogo dei film più vecchi, realizzati in pellicola, nel nuovo formato 4K.

Codec per il formato 4K

La ITU (International Telecommunication Union) ha approvato lo standard video che prenderà il posto dell’attuale H.264.

H.265 è il nome ufficiale del nuovo codec, noto finora come High Efficiency Video Coding (HEVC), che permette di trasmettere file video 4K e Ultra HD su reti a banda larga e reti mobili in streaming.

La principale caratteristica di H.265 è la capacità di riprodurre video in alta definizione con un consumo di banda dimezzato rispetto al codec H.264.

Pubblicato in CLASSI IV, CLASSI V, ricerche | Contrassegnato , , , , , , , , | Lascia un commento

Elementi di Fotografia: 1

Questa prima parte del corso di Tecnologie & Tecnica della fotografia ad uso degli operatori del settore audiovisivo, si concentra due concetti fondamentale dell’ottica fotografica: il CERCHIO d’IMMAGINE e gli ANGOLI di CAMPO degli obiettivi.


Schermata 2018-09-16 alle 20.17.37.png

Tav. 2

Schermata 2018-09-16 alle 20.16.35.png

Tav. 3

Schermata 2018-09-17 alle 18.53.50.png

Inserisci una didascalia

Schermata 2018-09-19 alle 17.07.44

Tav. 5 Nella cornice centrale (in rosso) l’area inquadrata da un obiettivo da 25 mm sul formato 4:3 (17,3 x 13 mm). L’angolo di campo è di 46° circa. La distanza di ripresa è di circa 15 metri. La distanza tra i due alberi era di 6,80 m.

Schermata 2018-09-20 alle 18.26.32.png

Tav. 6

Pubblicato in CLASSI IV, CLASSI V, ricerche, tecnologia dei processi di produzione | Contrassegnato , , , | Lascia un commento

PERCORSI: 3

PERCORSI>.041.jpegPERCORSI>.043.jpegPERCORSI>.044.jpegPERCORSI>.045.jpegPERCORSI>.046.jpegPERCORSI>.049.jpegPERCORSI>.050.jpegPERCORSI>.051.jpegPERCORSI>.053.jpegPERCORSI>.032.jpegPERCORSI>.033.jpegPERCORSI>.034.jpegPERCORSI>.035.jpegPERCORSI>.036.jpegPERCORSI>.037.jpegPERCORSI>.038.jpegPERCORSI>.040.jpegPERCORSI>.041.jpegPERCORSI>.042.jpeg

Pubblicato in CLASSI V, linguaggi, progettazione multimediale, tecnologia dei processi di produzione | Lascia un commento

Percorsi: filmografia introduttiva

  1. Cabiria, Giovanni Pastrone (alias Piero Fosco), 1914.
    Scoppia la prima guerra mondiale, la Grande Guerra. L’Italia è ancora incerta se impegnarsi o meno nel conflitto e da quale parte stare. La discussione tra interventisti e neutralisti è molto accesa.
    Intanto, l’industria cinematografica italiana produce il primo lungometraggio – il film durava circa 150 minuti – di genere storico-mitologico al mondo. Un film per molti versi innovativo: movimenti di macchina (carrellate), uso della luce artificiale, scene di esterni reali, grandi masse di comparse, scenografie tridimensionali realistiche, ecc. Il Gabriele D’Annunzio (poeta, romanziere, drammaturgo, copywriter, aviatore e politico italiano) partecipò alla pre-produzione, dando consigli, inventando i nomi dei due personaggi principali (Cabiria e Maciste) e contribuendo alla scrittura degli intertitoli. Il suo nome compare in grande evidenza nei cartelloni ufficiali del film: il marketing nel 1914 era già in piena forma!
    David W. Griffith – il cineasta americano considerato da molti il padre del cinema narrativo – possedeva una copia personale del film italiano che studiò attentamente, ricavandone molti spunti che utilizzerà nei suoi lungometraggi…


  2. La nascita di una nazione (The Birth of a Nation), David W. Griffith, 1915.
    Con questo film, il regista americano riassume le sue idee sul cinema narrativo, facendo la summa delle tecniche che da quel momento entreranno a far parte del linguaggio cinematografico basato sul montaggio (cinema classico): la scala dei campi e dei piani; l’alternanza di scene convergenti; il montaggio parallelo; i raccordi tra inquadrature.
  3. Intolerance, D. W. Griffith, 1916.
    Secondo lungometraggio di G. (quello che lo manderà quasi sul lastrico!) con colossali scenografie e grandi masse di comparse. Tratta del tema dell’intolleranza attraverso i secoli. Voleva anche essere una risposta alle (in realtà giustificate) accuse di razzismo per il suo La nascita di una nazione (il cui soggetto era tratto da un racconto che esaltava le “virtù eroiche” della setta razzista del KKK, KluKlusKlan).


  4. Il gabinetto del dott. Caligari (Das Cabinet des Dr. Caligari), Robert Wiene, 1920.
    Le avanguardie artistiche influenzano il cinema.  Gli artisti d’avanguardia si interessano molto al nuovo linguaggio della “settima arte”.  In Francia (i cubisti, i surrealisti e i dadaisti) , in Italia (i futuristi), in Russia (costruttivisti e cubo-futuristi) e in Germania (gli espressionisti). Questo film è considerato il capolavoro del cinema espressionista. È interessante, tra l’altro, soprattutto per l’uso delle scenografie dipinte e per la dimensione onirica e simbolica, dichiaratamente anti-naturalistica e anti realista (espressionista, appunto).
  5. Sciopero!, Sergej Michajlovič Ėjzenštejn, 1924.
    Si tratta del primo lungometraggio dell’autore-regista e teorico sovietico, vero mostro sacro della storia del cinema.


    “L’opera avrebbe dovuto far parte di un ciclo di otto opere intitolato “Verso la dittatura” (sottinteso “del proletariato“), un progetto cinematografico del Proletkult dedicata al movimento rivoluzionario in Russia.
    Ėjzenštejn era un giovane regista teatrale quando nel 1924 realizzò questo film, nel quale iniziò a mettere in pratica le sue idee e segnatamente quella che egli definiva “montaggio delle attrazioni”. L’alternanza delle inquadrature del massacro degli operai in sciopero da parte delle truppe zariste e quella del mattatoio, rappresenta un esempio eloquente di ciò che Ėjzenštejn intendeva per montaggio.


    La  Storia: la mattina di domenica 22 gennaio  circa 200.000 manifestanti, si misero in marcia verso il Palazzo d’Inverno. Alcuni cortei, fermati all’ingresso dei ponti presidiati dalle truppe, attraversarono la Neva ghiacciata, e proseguirono il loro cammino verso il Palazzo. Vicino alla Prospettiva Nevskij un corteo venne respinto a fucilate. Due grandi cortei, unitisi in piazza Trinità, vennero caricati dalla cavalleria ma, continuando ad avanzare, furono affrontati dal reggimento Pavlovskij, che fece fuoco e più di un centinaio di manifestanti, tra morti e feriti, rimasero sul terreno.


  6.  La corazzata Potëmkin, Sergej Michajlovič Ėjzenštejn, 1925.
    Ancora oggi è considerato uno dei film più importanti e influenti della storia del cinema mondiale. Straordinario esempio di film di “attualità ricostruita”, aveva nelle intenzioni dell’autore due “personaggi collettivi”: l’incrociatore e la città di Odessa. La scena della scalinata di Odessa è diventata un classico del cinema di tutti i tempi grazie al perfetto montaggio e alla qualità delle immagini di Eduard Tissé “forse il più grande operatore vivente” (cfr. Georges Sadoul, Storia del cinema mondiale, Milano, 1978).


    Racconto, dell’ammutinamento dei marinai dell’incrociatore corazzato Potëmkin, scoppiato a Odessa il 27 giugno, uno degli episodi che si svolsero in Russia durante i movimenti rivoluzionari del 1905. Commissionato dal governo sovietico per il ventennale, il film è costruito come un dramma in cinque atti che lo stesso S.M. Ejzenštejn titolò: 1) Uomini e vermi; 2) Dramma sul ponte; 3) Il sangue grida vendetta; 4) La scalinata di Odessa; 5) Il passaggio attraverso la squadra. Ognuna delle cinque parti – paragonabili ai movimenti di una sinfonia – è imperniata su un elemento che ne costituisce l’unità visiva. Questo breve poema epico – che è anche uno straordinario esempio di cinema di propaganda – rappresenta, nel tormentato itinerario di Ejzenštejn, il momento di equilibrio e armonia tra ideologia e formalismo, ricerche d’avanguardia e tradizione, teoria e pratica. Il film fu proiettato per la prima volta il 21 dicembre 1925 al Teatro Bol’šoj di Mosca, e dal gennaio 1926 distribuito con tiepido successo di pubblico che aumentò dopo che fu proiettato nello stesso anno al Kamera Theater di Berlino, alla presenza del regista, con un’accoglienza entusiastica. Per un quarto di secolo in Occidente, comunque, con poche eccezioni, fu visto soltanto nei cineclub. (…)
    (Cfr. Il Morandini)

  7. Ottobre, Sergej Michajlovič Ėjzenštejn, 1926.

  8. Metropolis, Fritz Lang, 1927.

  9. Toni, Jean Renoir, 1935.
    (continua)

 

Pubblicato in CLASSI V, progettazione multimediale, ricerche, tecnologia dei processi di produzione | Contrassegnato , , , , , , , , , , , , , , , , , , | Lascia un commento

Percorsi: filmografia essenziale.

Storia, cultura e società attraverso la cinematografia italiana dal secondo dopoguerra ai giorni nostri

  1. 1. Luchino Visconti:
    1. Ossessione, 1943;
    2. La terra trema, 1948;
    3. Bellissima, 1951;
    4. Rocco e i suoi fratelli, 1960.

  2. Roberto Rossellini:
    1. Roma città aperta, 1945;
    2. Paisà, 1946;
    3. Germania Anno Zero, 1948.

  3. Vittorio De Sica:
    1. Sciuscià, 1946;
    2. Ladri di biciclette, 1948;
    3. Miracolo a Milano, 1951;
    4. Umbero D., 1952.

  4. Federico Fellini:
    1. La strada, 1954;
    2. La dolce vita, 1960;
    3. Amarcord, 1973;
    4. Prove d’orchestra, 1979;
    5. La città delle donne, 1980.

  5. Gillo Pontecorvo:
    1. Kapò, 1959.

  6. Carlo Lizzani:
    1. Achtung, banditi, 1951;
    2. Cronache di poveri amanti, 1954;
    3. Mussolini, ultimo atto, 1974.

  7. Michelangelo Antonioni:
    1. Il grido, 1957;
    2. Zabriskie Point, 1970.

  8. Mario Monicelli:
    1. La Grande Guerra, 1959.

  9. Dino Risi:
    1. Il sorpasso, 1962.

  10. Paolo e Vittorio Taviani:
    1. I Sovversivi, 1967;
    2. La notte di San Lorenzo, 1982.

  11. Francesco Rosi:
    1. Salvatore Giuliano, 1962;
    2. Le mani sulla città, 1963;
    3. Uomini contro, 1970;
    4. Il caso Mattei, 1972;
    5. Cadaveri eccellenti, 1976.

  12. Elio Petri:
    1. A ciascuno il suo, 1967;
    2. Indagine su di un cittadino al di sopra di ogni sospetto, 1970;
    3. La classe operaia va in paradiso, 1971.

  13. Damiano Damiani:
    1. Il giorno della civetta, 1968.

  14. Pier Paolo Pasolini:
    1. Accattone, 1961;
    2. Mamma Roma, 1962;
    3. La rabbia (documenti-film) 1963;
    4. Il Vangelo Secondo Matteo, 1964;
    5. Comizi d’amore (documentario), 1964.

  15. Citto Maselli:
    1. Gli sbandati, 1955.

  16. Nanni Loy:
    1. Le quattro giornate di Napoli, 1962.

  17. Franco Brusati:
    1. Pane e cioccolata, 1974.

  18. Valerio Zurlini:
    1. Il deserto dei Tartari, 1976.

  19. Ettore Scola:
    1. Una giornata particolare, 1977.

  20. Ermanno Olmi:
    1. Il posto, 1961;
    2. L’albero degli zoccoli, 1978.

  21. Bernardo Bertolucci:
    1. La comare secca, 1962;
    2. Prima della rivoluzione, 1964;
    3. Novecento, 1976 (parte I – parte II).

  22. Marco Bellocchio:
    1. I pugni in tasca, 1965;
    2. La Cina è vicina, 1967;
    3. Sbatti il mostro in prima pagina, 1972.

  23. Florestano Vancini:
    1. Il delitto Matteotti, 1974.

  24. Nanni Moretti:
    1. Io sono un autarchico, 1976;
    2. Ecce bombo, 1978;
    3. Sogni d’oro, 1981;
    4. Palombella rossa, 1989;
    5. Il caimano, 2006.

  25. Gouseppe Ferrara:
    1. Il caso Moro, 1986.

  26. Gouseppe Tornatore:
    1. Nuovo cinema Paradiso, 1988.

  27. Michele Placido:
    1. Il grande sogno, 2009.

  28. Matteo Garrone:
    1. L’imbalsamatore, 2002;
    2. Gomorra, 2008; Reality, 2012;
    3. Dogman, 2018.

  29. Paolo Sorrentino: 
    1. L’amico di famiglia, 2006;
    2. Il divo, 2008;
    3. La grande bellezza, 2013;
    4. Loro, 2018.


Pubblicato in CLASSI V, progettazione multimediale, tecnologia dei processi di produzione | Contrassegnato , , , , , , , , , , , , , , , , , , , , , , , , , , | Lascia un commento