LA NAPOLI DEGLI ANGIOINI

Un percorso di ASL (ma anche un percorso pedonale)

NAPOLI_ANGIOINA_SITI
Trovo triste che i nostri giovani ignorino la Storia, che ne sottovalutino l’importanza. Quasi come se esistesse solo il presente, o al massimo il passato prossimo e che questi siano fatti di banalità, di frivolezze o, peggio ancora, di degrado, di sottosviluppo e di malaffare.
C’è stato un tempo nel quale fiorentini come Giovanni Boccaccio o Giotto, toscani come Petrarca o Simone Martini, trovavano a Napoli quella universalità culturale che la loro terra non aveva ancora conquistato, dilaniata com’era da lotte intestine di opposte fazioni e da un certo provincialismo che molto aveva a che fare col “campanilismo” tipico dell’Italia centro-settentrionale. La corte di Napoli, aveva in un certo senso mantenuto la grandezza dell’età “federiciana”. Federico II di Svevia, detto dai suoi contemporanei “Stupor Mundi”, pur nelle sue contraddizioni, aveva una visione così avanzata rispetto ai suoi tempi, tanto da volere a Napoli la prima università pubblica e interamente laica al mondo (1224), per formare i suoi funzionari statali.
Ah, se solo avessero lasciato più tempo ai suoi eredi! Se il papato non fosse intervenuto imponendo il suo interesse e quello francese!
Certo la corte angioina di Napoli era raffinata, ma non amava suoi nuovi sudditi, dai quali, almeno nei primi decenni, era estranea e distaccata. Molto se ne ebbero a rammaricare nobili e plebei del regno di Sicilia, quando al magnanimo svevo Manfredi, subentrò il protervo Carlo, primo Conte d’Angiò, fratello del re di Francia Luigi IX, il Santo (San Luigi dei Francesi)! chiamato dal papa come proprio vassallo, contro la presunta usurpazione del trono di Sicilia da parte di Manfredi. Luigi IX voleva tenersi fuori dalle beghe papali con l’imperatore tedesco, ma Carlo, era uomo di grande ambizione, cui non potevano bastare le contee assegnategli dal re suo fratello. Possedimenti pericolosi perché sottratti agli inglesi Plantageneti che ne rivendicavano il dominio. La Sicilia e Napoli assicuravano ben altro prestigio. Si trattava di terre ricche si storia, di cultura, di fascino millenario, profondamente insinuate nel Mar Mediterraneo e protese verso i domini ricchissimi dell’oriente. Napoli sarebbe stata la sua nuova patria.
Carlo portò a Napoli la capitale del regno, e questo fu una fortuna per la città. La mano pesante e crudele dell’angioino gli era costata la Sicilia, insinuando gli aragonesi nella nostra storia, e quindi la Spagna. Un lungo autunno in cui Napoli e tutto il meridione, fu vicereame sotto il potere assoluto e “cattolicissimo” delle dinastie degli Asburgo e poi dei Borbone. Certo non furono solo inquisizione e repressione (furono anche questo, come ci ricorda Manzoni nelle sue celebri opere), ma la nostra storia avrebbe meritato di meglio. Del resto, la storia ci insegna che questi potenti, benché in perenne guerra, erano anche tutti imparentati “tra loro”. Non per fortuna e non per caso, ci siamo liberati di questi insigni parassiti solo con il secondo dopoguerra e la Repubblica, mentre gli spagnoli li hanno ancora a loro carico.

Schermata 2017-12-09 alle 18.52.03DAGLI_SVEVI_AGLI_ANGIOINI

Annunci
Pubblicato in progetti, tecnologia dei processi di produzione | Contrassegnato , , , , , , , , , , , , , , , , , , , , | Lascia un commento

Introduzione alla TEORIA DEL COLORE

 

  1. RGB: colore/luce: dalle esperienze di I. Newton sappiamo che la luce (bianca) si può scomporre in una pluralità di luci (colorate); sappiamo che ognuno dei colori che compone la luce (bianca) ha una differente lunghezza d’onda; sappiamo che i colori principali (primari) della luce (bianca) sono tre: ROSSO (R) – VERDE (G) – BLU (B): RGB. Questo metodo è alla base del funzionamento di dispositivi di output come monitor, televisori, proiettori; o di input come apparecchiature foto-video, scanner, ecc.
  2. CMYK: colore/materia: quando stampiamo (quindi, non quando produciamo un artefatto, sia esso un’opera di pittura o grafica o fotografica) dobbiamo ridurre “in qualche modo” il numero teoricamente infinito dei colori possibili, in un piccolo numero di colori che, mescolati insieme tra loro, “in qualche modo”, diano l’impressione, producano alla nostra vista la sensazione, di tutti i colori possibili (o almeno di una gran parte di essi). Questo metodo è detto QUADRICROMIA e consiste nel mescolare inchiostri (o vernici o altro tipo di materie colorate) di quattro tinte ben precise: Cyan (C) – Magenta (M) – Yellow (Y) – BlaK (K): CMYK. Il ruolo del nero consiste nel rinforzare i colori più scuri e per produrre il nero intenso dove il nero è il solo colore, poiché i soli ciano, magenta e giallo, sovrapposti o accostati, dovrebbero teoricamente produrre il nero. Ciò non avviene perché le materie coloranti non sono mai abbastanza pure da assorbire completamente il loro complementare.
  3. HSB: colore/percezione: sia il metodo RGB che quello CMYK funzionano abbastanza bene nel loro campo di applicazione, ma non sono simili al sistema di funzionamento fisiologico della visione umana.  La visione oculare – per schematizzare – è basata su cellule specializzate nella percezione delle variazioni di luminosità (i bastoncelli) e su cellule sensibili alle lunghezze d’onda corrispondenti al rosso, al verde e al blu (i coni). In sostanza, percepiamo sensazioni colorate con un maggiore o minore livello di purezza a seconda del livello di luminosità presente. Per cui, con il diminuire della intensità luminosa (per esempio in penombra, all’imbrunire o al chiaro di luna) la sensazione cromatica si riduce drasticamente: vediamo le forme ma non ne percepiamo i colori (i coni non sono i grado di lavorare al di sotto di un certo livello di luminosità).
    Il metodo HSB identifica ciascuna tinta (Hue), incrociando il livello di purezza, cioè di saturazione (Saturation) con quello di luminosità (Brightness).
  4. I metodi di colore 
  5. Il sistema Munsell: Albert Henry Munsell ideò un metodo standard per identificare i colori nel modo più oggettivo possibile, partendo da 10 colori fondamentali (Hue) con 10 gradi diversi di luminosità (Value) e vari livelli di purezza (Chroma). Nello schema ad albero inventato da Munsell, si ha una colonna centrale dal nero (in basso) al bianco (in alto), con la serie di anelli concentrici relativi ai 10 colori chiave. Man mano che si va dal centro all’esterno, i colori sono sempre più puri perché non si ha né la presenza del bianco, né del nero.


    Albero di Munsell

    Schema del sistema ideato da Albert Henry Munsell, da cui deriva il metodo HSB

 

(continua)

Pubblicato in tecnologia dei processi di produzione | Contrassegnato , , , , | Lascia un commento

Sulla Risoluzione

Precisiamo subito che si tratta di un argomento davvero importante, persino per un “non professionista” che solo si interessi superficialmente di fotografia, di grafica e di altre amenità del genere. Se poi dobbiamo formarci per affrontare una professione tecnica o artistica del settore, allora sappiate che le cose da sapere e da comprendere sono diverse e tutte determinanti per il buon esito dei vostri lavori. Spero siano anche cose abbastanza interessanti! Cominciamo subito.


Questo è un PIXEL.  35-pixel  Anzi, mi correggo, sono 6 x 6 pixel. Volete vederli meglio? Osservate l’illustrazione più in basso.
PIXEL è un acronimo che sta per “elemento-immagine” (picture-element). Il paragone con la tecnica del mosaico può essere utile. Infatti, le tessere di un mosaico sono a modo loro  dei PIXEL, elementi (materici, in questo caso) che costituiscono l’immagine.

Schermata 2017-10-30 alle 15.36.44

Ecco come si presenta una porzione ingrandita di una immagine raster composta da 36 pixel.

ISSO

Particolare del mosaico raffigurante La Battaglia di Isso, conservato nel Museo Archeologico Nazionale di Napoli.

Il pixel è alla base della produzione e della visualizzazione delle immagini RASTER. Se volete vedere un raster, prendete il vostro quaderno “a quadretti”. Ecco! i quadretti costituisco un raster. Ogni quadratino è una cella.  (Con Illustrator, ad esempio, possiamo impostare una griglia da usare come gabbia per le nostre composizioni: anche in quel caso si tratta di un raster).
Un raster può essere più o meno denso; cioè, le celle possono essere più o meno piccole e, nello stesso campo che prendiamo in considerazione abbiamo aspetti diversi legati al concetto di pixel. Un campo specifico può essere, ad esempio, un documento di formato A4, anche vuoto; il sensore digitale della nostra fotocamera; lo schermo del nostro computer o l’immagine che abbiamo realizzato fotograficamente o direttamente in un applicativo di grafica raster come Photoshop o Gimp. In ognuno di questi casi stiamo adoperando un modo per visualizzare le immagini, a partire da elementi costitutivi più o meno grandi che chiamiamo pi(cture) x el(lement). Maggiore è il numero complessivo dei pixel che costituiscono una immagine, più essa è grande, a prescindere dalla risoluzione (concetto che analizzeremo in seguito).


Una immagine raster, come ad esempio una fotografia digitale (o digitalizzata con uno scanner), è costituita da una certa quantità di pixel, più o meno grande. Questa “quantità” è determinata dalla risoluzione massima del sensore dell’apparecchio fotografico (o anche della videocamera o di uno scanner), ma può essere ridotta dall’utilizzatore del dispositivo (fotocamera, videocamera, scanner, …) a seconda delle necessità. Di regola, la risoluzione non può essere aumentata, ma può essere ridotta.
Tipicamente, un apparecchio fotografico digitale di livello amatoriale, attualmente (2017) ha un risoluzione tra i 16 e 24 MEGAPIXEL: da 16 a 24 milioni di pixel totali. Apparecchi professionali arrivano tranquillamente a 100 MPX.

E adesso parliamo della risoluzione.
Photoshop, l’applicativo di grafica raster “per eccellenza”, la chiama per nome nella sua finestra Nuovo documento. 300 è la risoluzione ideale per immagini destinate alla stampa, sia se dobbiamo stampare le nostre foto delle vacanze da incollare in un album alla vecchia maniera, sia che dobbiamo stamparle insieme a testo e altra grafica per una pubblicazione editoriale (libro, giornale, calendario, brochure, ecc.). 72 è la risoluzione che ci viene proposta per la grafica destinata al WEB o se dobbiamo creare qualcosa da inserire in un video (come titolazioni, animazioni, sottopancia, ecc.).
Illustrator invece, applicativo di grafica vettoriale (o “per oggetti”), non la chiama per nome. Fa riferimento alla risoluzione come “Effetti raster”, sempre nella finestra Nuovo documento. Anche Illustrator indica in 300 ppi la risoluzione più corretta per la stampa e in 72 ppi quella giusta per applicazioni WEB o Video.

(Fate molta attenzione alle illustrazioni qui sopra. Sembrano tutte uguali, ma non lo sono. Osservatele attentamente e ricavatene qualche insegnamento. Spesso queste finestre sono un po snobbate dai principianti).


Cosa significa 300 o 72, o qualunque altro valore di risoluzione? Possiamo dire che indica la quantità di informazioni che avremo per ogni pollice (o anche per ogni centimetro) quadrato dell’immagine. A 300 ppi, per ogni inch. quadrato (25,4 x 25,4 mm), avremo 90.000 pixel (300 x 300). A 72 ppi, ne avremo solo 5.184 (72 x 72). Una bella differenza, no?
(In Illustrator la dicitura Effetti raster, indica la risoluzione alla quale verranno realizzati gli elementi raster come le ombreggiature o altro che il programma è in grado di applicare).


Le illustrazioni che seguono mostrano le finestre Dimensione quadro e Dimensione immagine, accessibili dal menù IMMAGINE di Photoshop. (Nelle didascalie ho riassunto gli elementi di interesse da notare).

Schermata 2017-11-12 alle 17.46.35

Dimensione quadra (accessibile dal menù IMMAGINE) ci mostra le dimensioni effettive della nostra immagine, a prescindere dalla risoluzione

Schermata 2017-11-12 alle 17.45.43

Questa fotografia è molto grande di suo, ma possiamo ridurre la dimensione assoluta portando la risoluzione a 72 ppi , in modo da poterla usare per un sito web. In questo caso dovremo ricampionarla (Ricampiona). La dimensione in cm è un dato poco significativo.

Schermata 2017-11-12 alle 17.46.11

Se adottiamo una risoluzione, ad esempio, di 72 ppi per questa immagine, senza inserire la spunta in Ricampiona, Photoshop ricalcola le dimensioni in cm per la nuova risoluzione. In questo caso avremo una immagine stampabile di oltre 1,40 x 2,12 metri!

Schermata 2017-11-12 alle 17.45.19

Trattandosi di una fotografia realizzata con un apparecchio da oltre 24 MP (megapixel: 24 milioni di pixel totali), possiamo ricavarne stampe ad alta risoluzione piuttosto grandi: 34 x 51 cm c.


Facciamo un piccolo esperimento (per il quale sarà conveniente modificare l’unità di misura dei righelli a Pollici dal menù PREFERENZE o facendo doppio clic sul righello):
1) apriamo una foto ad alta risoluzione è riduciamola (con la taglierina) ad un quadrato di un Inch. di lato e salviamola con nome in JPG alla massima qualità;
2) dal menù IMMAGINE accediamo alla finestra Dimensione immagine, inseriamo la spunta in Ricampiona e 72 nella casella Risoluzione e salviamo il file con nome;
3) apriamo il file a 300 ppi e quello a 72 (dovrebbe essere già presente nell’area di lavoro di Photoshop);
4) dal menù FINESTRA scegliamo Ordina e quindi Affianca in verticale (vedi la tavola in basso).

Schermata 2017-11-12 alle 18.09.51

Modifichiamo l’unità di misura dei righelli

 

UN_INCH_@300pp

Questo è un pollice quadrato della nostra immagine a 300 ppi. L’illustrazione seguente mostra lo stesso dettaglio a 72 pp

 

UN_INCH_@72pp

72 ppi

 

Schermata 2017-11-12 alle 18.18.38

Questa è la finestra di Photoshop con i due tasselli di un pollice quadrato, affiancati. E’ possibile apprezzare la differenza di “qualità” dell’immagine. Maggiore è la risoluzione maggiore è la DEFINIZIONE

 

Schermata 2017-11-12 alle 18.11.31

Al centro è visibile la selezione di taglio del tassello di un pollice quadrato

UN_INCH_@300pp

Questo è un pollice quadrato della nostra immagine a 300 ppi. L’illustrazione seguente mostra lo stesso dettaglio a 72 pp

UN_INCH_@72pp

72 ppi

Schermata 2017-11-12 alle 18.47.58

FINESTRA>Ordina: affianca in verticale

Schermata 2017-11-12 alle 18.18.38

Questa è la finestra di Photoshop con i due tasselli di un pollice quadrato, affiancati. E’ possibile apprezzare la differenza di “qualità” dell’immagine. Maggiore è la RISOLUZIONE maggiore è la DEFINIZIONE dell’immagine.


Ora sappiamo che il numero di pixel che compone un’immagine è indipendente dalla risoluzione, nel senso che, pur modificando questo parametro, l’immagine resta la stessa (se non la ricampioniamo!). Abbiamo anche visto, però, che le dimensioni “fisiche” dell’immagine cambiano; anzi cambierebbero, nel caso la volessimo stampare. (E’ possibile stampare molto grande un file raster per scopi particolari, ad esempio per realizzare un manifesto pubblicitario 70 x 100 cm. Ma in altri casi è un errore o una forzatura che comporta una bassa qualità dell’immagine che in alcuni casi diventa assolutamente inaccettabile).
Nel caso di immagini destinate ad web o al video, la risoluzione richiesta va dai 72 ai 96 ppi: meglio 72. Nel caso di immagini destinate alla stampa fotografica o alla stampa offset di libri e riviste patinate di alta qualità, 300 ppi è la risoluzione mediamente accettata, ma si può arrivare anche a oltre 360 ppi nel caso di cataloghi d’arte di grande prestigio, dove è richiesta una qualità di stampa elevatissima
Nel video la risoluzione è un parametro secondario. Quello fondamentale è la DEFINIZIONE. Ne discuteremo in un altro articolo.

Pubblicato in tecnologia dei processi di produzione | Contrassegnato , , , , , , | Lascia un commento

Questioni di tecnica…

Vi sono alcuni semplici concetti che appartengono al bagaglio minimo di conoscenze per chi si occupa di fotografia, cinema, video e audiovisivi in generale.

Per prima cosa possiamo considerare il FORMATO fisico e le DIMENSIONI del FOTOGRAMMA (frame) caratteristico dell’apparecchio in uso. Che si tratti di un apparecchio fotografico, di una cinepresa, di una videocamera analogica o digitale o di un sistema CCTV (tv a circuito chiuso).

1529_D3300_left

DSLR APS-C

In alcuni casi la misura è espressa in inch (pollici, simbolo “ = 25,4 mm).
Il formato è generalmente rettangolare con vari aspect ratio (rapporto delle proporzioni base x altezza).
Quelli di voi che hanno una certa familiarità con questi concetti e  posseggono un apparecchio fotografico digitale, probabilmente sanno che si tratta magari di una reflex o di una mirroless con un sensore APS-C.

74925baf70aa473baf860aaae3af547d.png

Zoom standard 18-55

Il più delle volte questi apparecchi vengono acquistati muniti di un’ottica zoom con una determinata escursione di focali disponibili, stampate sul barilotto e sulla parte frontale, dove si trovano anche altri numeri che fanno riferimento alla luminosità dell’obiettivo. In genere questi zoom coprono le focali più comuni ed utilizzate, che vanno da quella  grandangolare (espressa dal numero più piccolo), a quella d’un medio-tele (espressa dal numero più grande). Tra l’una e l’altra vi sono tutte  le altre, ma l’obiettivo riporta graficamente solo le più rappresentative (sulla ghiera che consente la zumata). A volte la focale realmente in uso è visibile nel mirino o sul display posteriore. [Chi elabora al computer le proprie immagini, sa che queste informazioni sono presenti e consultabili sotto forma di metadati associati all’immagine].

dbeadb8ac80c051d022844d20eb63557_orig.jpg

Apparecchio folding ad ottica fissa per il formato 6 x 6 / 6 x 9)

Questo esempio mi è servito per mettere in evidenza come, da un po di tempo, chi si avvicina alla fotografia e ancor più alla ripresa video, non abbia la minima idea del concetto di formato, mentre quando si fotografava su pellicola, per il fatto stesso che la pellicola la si doveva sviluppare e poi archiviare, magari dopo averne ottenuto delle stampe, la si aveva ben presente e se ne conosceva il formato. In aggiunta a ciò, un tempo anche i fotografi più inesperti avevano a disposizione soprattutto obiettivi a focale fissa e, abitualmente, acquistavano  l’apparecchio con solo obiettivo “normale”. Per cui,  sapevano che l’ottica “standard” aveva un certa lunghezza focale. Se avevano una reflex o un apparecchio a telemetro per il formato 35 mm, probabilmente possedevano un 50 o un 55 mm come focale “normale”. Se avevano un’apparecchio di medio formato 6 x 6, un tempo molto diffuso anche tra gli amatori, spesso si trattava di una reflex biottica o di una folding con ottica normale fissa da 75 o 80 mm. Solo i fotografi più professionali disponevano di apparecchi di grande formato con una scelta di ottiche tra cui il normale da 135 o 150 o 180 o 240 o addirittura da 360 mm.

SYMMAR-360

Obiettivo per apparecchi di grande formato. Si tratta di un 360 mm, normale sul formato “8 x 10 (cm 20 x 25). Spesso utilizzato come “lungo fuoco” sul formato “4 x 5 (cm 10 x 12 c.)

L’industria fotografica non ha mai smesso di proporre novità. In fondo si tratta di un settore che è nato con la modernità ed è cresciuto grazie allo sviluppo delle società di massa, dove – come ci ha insegnato W. Benjamin (L’opera d’arte nell’epoca della sua riproducibilità tecnica) – la fotografia ha rappresentato la democratizzazione della produzione e del possesso di immagini, una volta appannaggio solo dei ceti più abbienti che potevano accedere a quadri o almeno a incisioni di paesaggi, ritratti, o nature morte…

Forse oggi la vera novità è costituita proprio dall’estensione d’uso del congegno portatile nato all’origine per comunicare in voce – alludo al telefono cellulare – nella sua forma più attuale di dispositivo per la comunicazione multimediale, dove la funzione di foto-video-camera, al principio piuttosto accessoria, è diventata fondamentale, tanto che oramai tutti usano il proprio smartphone per prendere appunti visivi, fotografando documenti, pagine di libri o lo schermo di un computer.

Chi conosce il formato del sensore del proprio smartphone o del proprio tablet? Chi conosce la lunghezza focale dell’obiettivo di cui è dotato? (E, soprattutto, a chi interessa saperlo?)
Noi che ci occupiamo di queste cose per studio, per piacere o per professione, dobbiamo avere un elevato livello di consapevolezza circa le apparecchiature che utilizziamo. Se è vero che il formato costruisce la base, chiediamoci perché. Il motivo è testo detto: sulla base delle dimensioni (base x altezza) del sensore come della pellicola. Sulla base della diagonale del fotogramma viene calcolato il diametro del cerchio di illuminazione dell’obiettivo.

Se a una data distanza tra il centro dell’obiettivo (il piano passante per il punto dove i raggi ottici invertono il loro percorso per formare l’immagine) e il piano focale (quello dove l’immagine si forma nitidamente, quando viene “ messa a fuoco”) abbiamo un angolo di campo paragonabile a quello della vista umana (circa 45°) si tratta di un obiettivo di focale normale; se l’angolo è maggiore di diversi gradi (60° e più), avremo un obiettivo di focale grandangolare (wide angle); se l’angolo è minore di diversi gradi (35° e più), avremo un obiettivo di focale tele (tele photo).

L’angolo di campo è in funzione della lunghezza focale ed essa è in relazione alla diagonale del formato. Quando l’obiettivo ha una lunghezza focale simile alla misura della diagonale si tratta di un ‘ottica normale, con un angolo di campo di circa 45°.

Ad esempio, la diagonale sul formato 24 x 36, è di circa 44 mm. L’obiettivo normale su tale formato è mediamente un 50 mm con un angolo di campo di 46° (ma può essere anche un 40 o un 60 con angoli di campo rispettivamente di circa 50° o di circa 40°).

Partiamo da un concetto preciso: la lunghezza focale di una lente (o di un sistema di lenti) è un valore assoluto: un SUMMICRON-M 50 mm non diventa 100 mm se adattato su una GH4. Il cosiddetto fattore di crop per calcolare la  focale reale di un’ottica adattata da un formato di dimensione maggiore ad uno minore è pratico ma fuorviante. Quello che cambia realmente è l’angolo di campo sfruttato dal formato di minori dimensioni rispetto a quello per il quale l’obiettivo è stato calcolato all’origine.

In altri termini, il Summicron 50 del nostro esempio, si comporta sul formato MFT da obiettivo “lungo fuoco”, come un 360 mm o un 480 mm per apparecchi da “8 x 10 o superiori posto su una fotocamera “4 x 5.

Quando lavoravo con gli apparecchi di grande formato (a corpi mobili) era consuetudine adoperare obiettivi di grande lunghezza focale, ma di costruzione “normale”, per sfruttare il maggior cerchio di copertura al fine di consentire agevoli movimenti delle standarte. Nessuno avrebbe ami parlato di “crop factor”, sostenendo che il 300 mm sul formato “4 x 5 equivaleva ad un 600 (fattore 2 x).

A cosa è dovuto questo modo di ragionare oggi tanto frequente? Poiché attualmente il formato  del sensore più diffuso è l’APS-C (mm 23,6 x 15,7), sia sulle reflex che sulle mirrorless, i fotoamatori e sovente anche i professionisti non più giovani fanno ancora riferimento al formato “Leica” (mm 36 x 24) e ragionano in termini di 50 mm = normale, 28 mm = grandangolare, 135 mm = teleobiettivo. Le abitudini sono difficili da modificare! Per il formato APS, il 28 mm è un normale (anche se solitamente viene indicato come normale il 35 mm); il 50 mm è un tele moderato e il 135 mm un tele deciso. Su questo formato, il classico zoom “tuttofare” 28-85 o il  24-70 e simili, abituali sul full-frame, sono sostituiti da zoom 18-55 o 16-50, con angoli di campo equivalenti.

Una cosa di cui è necessario tener conto è la seguente: un obiettivo da 28 mm che può essere considerato normale sul formato APS – abbia o meno un cerchio d’immagine coerente o maggiore del formato su cui viene adoperato – e che sarebbe un grandangolare sul formato full frame, ai fini della PdC si comporterà sempre da 28 mm. Sappiamo che più corta è la focale maggiore sarà la profondità di campo e viceversa. Questo principio vale sempre. Per cui, se il nostro obiettivo, ad esempio è un 45 mm che adoperiamo sul formato Quattro-Terzi (mm 17,3 x 13) con un angolo di campo di 27°, equivalente ad un tele moderato che sul formato full frame potrebbe essere un 90 mm, ciò non significa che questo obiettivo avrà anche la stessa profondità di campo di un Summicron-M 90 mm! Analogamente, il normale da 20 o 25 mm su MFT (formato quattro terzi), avrà una profondità di campo paragonabile a quella di un Flektogon 20 o 25 mm sul 36 x 24, cioè, molto più accentuata di quella di un normale sul formato full frame. E questo con tutte le ovvie conseguenze.

Quando adoperiamo una focale 50 mm su formato APS, anche se erroneamente pensiamo si tratti di un 75 mm perché ha un angolo di campo equivalente, ai fini della PdC esso resta un 50. Se abbiamo bisogno di una maggiore sfocatura dello sfondo a parità di apertura relativa (diaframma), dovremo aumentare la lunghezza focale, anche se questo comporterà anche un angolo di campo ridotto e, se vogliamo lasciare la stessa inquadratura ci dovremmo allontanare dal soggetto (la qual cosa che aumenterà la PdC).

Una cosa da importante da considerare circa l’utilizzo di ottiche full-frame su sensori di dimensioni più ridotte, è che non resta invariato il valore di apertura relativo. Ad esempio, un 50 mm 1.4 per 36 x 24 non equivale ad un 75 mm 1.4 su APS o ad un 100 mm 1.4 su MFT.
Il fatto di sfruttare solo una parte del cerchio d’immagine (ovvero la copertura effettiva per la quale l’obiettivo è stato calcolato), ne riduce di fatto la luminosità. Facendo delle prove sperimentali in laboratorio è possibile determinare la luminosità effettiva di un’ottica. Ad esempio, un 50 mm 1.2 sul formato APS si comporta come un 75 mm 1.8 sul formato 36 x 24 (la luminosità effettiva è ridotta di 2/3, mentre l’angolo di campo è ridotto secondo un fattore di 1,5 x).

veydra_v1_16t22m43i_mini_prime_16mm_t2_2_1134183

Obiettivo per riprese video sul formato MFT. Si tratta di una focale 16 mm T 2.2

Un ulteriore argomento d’interesse è costituito dalla luminosità effettiva trasferita dalle lenti alla pellicola o al sensore. Questo valore è espresso dal numero T, mentre la luminosità nominale è espressa dal valore f. Quest’ultimo risulta da un semplice calcolo: dato il diametro della lente frontale dell’obiettivo (poniamo sia 42 mm), dividiamo la lunghezza focale (poniamo sia 50 mm) per il diametro frontale (50 : 42 = 1,19; quindi la luminosità di questo obiettivo sarebbe f. 1:1.2). Niente male! Ma questo valore è teorico, poiché le lenti non trasmettono il 100% della luce che le attraversa (ce ne accorgiamo dai riflessi che vediamo: maggiore è la quantità dei riflessi, minore è la quantità di luce che passa). Per cui, negli obiettivi cinematografici viene indicato il valore effettivo della luce trasmessa con un numero T (T sta per luminosità trasmessa). Qui entrano in gioco alcuni fattori, come il numero di lenti del sistema, la qualità del vetro ottico utilizzato (LD sta per Low Dispersion, lenti a bassa dispersione), la qualità del trattamento antiriflesso.

 

 

 

Pubblicato in Esercitazioni | Lascia un commento

Introduzione al video digitale

  1. Diamo per scontato che, parlando di video-“digitale”, sappiamo come funzioni l’informazione digitale*, distinguendola così dalle molte tipologie “analogiche”.
    Rimando la questione all’ articolo.


    *[Possiamo identificare le attività di comunicazione in un computer come un rapidissimo spostamento di segnali binari, acceso/spento, 0/1. Tutti i dispositivi di memoria, in definitiva, seguono questo dualismo del segnale (acceso/spento, aperto/chiuso, carico/scarico, on/off, 0/1…) […]
    L’elemento minimo di memoria è dunque sempre costituito da un’unità binaria (cioè un’unità che può avere due soli possibili stati, senza alternative) e viene detto BIT (da Binary digIT, ovvero cifra binaria). I due stati in cui può trovarsi il bit sono convenzionalmente rappresentati con le cifre 0 e 1 e corrispondono alle informazioni trasmesse e utilizzate in serie nel sistema-computer.
    Per ottenere informazioni utili e per aumentare la portata dell’informazione dei bit, questi ultimi vengono considerati convenzionalmente nelle loro sequenze di 8 unità, definite byte e dai loro multipli.
    In un file di puro testo ogni singolo carattere viene associato ad una delle possibili combinazioni di 8 bit ed è quindi corrispondente all’informazione presente in un byte ed interpretata secondo una tabella di conversione memorizzata nei sistemi operativi].


    Immagino che ben pochi turisti, armati delle loro videocamere più o meno sofisticate, siano anche semplicemente interessati a sapere come sono registrate e memorizzate le informazioni che costituiscono il flusso di immagini che, al loro ritorno dalle vacanze, delizieranno qualche serata coi loro amici. Spero proprio che voi abbiate un approccio più professionale.
    Devo ammettere, che le questioni tecniche che affrontiamo in questo articolo, sono apparentemente molto lontane da ambizioni artistiche ed estetiche. Apparentemente! Nella troupe alle prese con l’ipotetico piccolo capolavoro della video arte (?), qualcuno che si faccia carico di affrontare le molte questioni tecniche ci dovrà pur essere!


    In soffitta abbiamo trovato una vecchia Bolex e anche la moviola con la quale lo zio Ernesto negli anni Sessanta – studente dell’Accademia – realizzava i suoi cortometraggi. La cinepresa ha una curiosa piastra circolare con tre obiettivi a focale fissa, e una  leva che doveva servire per cambiare l’inquadratura, passando rapidamente dall’uno all’altro.
    Paillard_Bolex_16mm_lens revere_44
    Sullo scaffale c’e anche una grossa videocamera analogica S-VHS con un poderoso obiettivo zoom e, in basso, un apparecchio più maneggevole su cui si può leggere la sigla “Video-8”, con dei piccoli nastri con la stessa dicitura.  Zio Ernesto ci ha suggerito di prendere in prestito la videocamera digitale miniDV – una bellissima Sony con 3 CCD dall’aspetto  molto professionale. Per cominciare va più che bene, lui dice. Col vecchio Macintosh G5 e il software in dotazione potremo fare un buon lavoro di acquisizione e di montaggio, senza eccessivi problemi di velocità o di memoria, per poi esportare il video in formato mov, o in mpeg-2…, o magari in x-vid.
    Volendo
     puntare più in alto, dovremmo avere una videocamera Full-HD – oggi se ne possono trovare a prezzi molto bassi – e quindi lavorare con un formato più impegnativo, con un flusso di dati compressi in H-264, che richiede computer piuttosto potenti.Schermata 2014-11-02 alle 11.29.26Lo zio ci ha anche spiegato che per molti video si usa uno standard ancora più spinto, detto 4K*. Per gestire quel flusso di dati sono necessarie workstation potentissime, con tanta tanta memoria RAM e hard disk molto capienti. 
    * Con questa sigla si intende riferirsi a riprese video (e alle apparecchiature in grado di realizzarle) con la dimensione base di c. 4.000 pixel. Sono già presenti apparecchiature capaci di generare flussi video 5k e 8k (Ultra Definition 8k = 8192×4320).

    Per cominciare, dovremmo rispondere a queste domande:

    1. Che genere di video dobbiamo realizzare? (Amatoriale, didattico, professionale …)
    2. Con quale media dovremo distribuirlo? (DVD-BluRay-Internet-Mobile …)
    3. Di quale hardware disponiamo per il montaggio? (CPU, GPU, RAM, HDD, quali interfacce, schede dedicate, ecc)
    4. Quale standard utilizzeremo, quale codec e quale formato useremo per esportare il file video?
      (VCD – DVD – HD; AVI – QuikTime – MKV – Ogg ; mpeg-1 – mpeg-2 – mpeg-4)
Pubblicato in progettazione multimediale, tecnologia dei processi di produzione | Contrassegnato , , , , | Lascia un commento

I Media della Contemporaneità

Agli inizi dell’Ottocento il livello di alfabetizzazione era generalmente ancora molto basso. Nei paesi di cultura protestante il livello era più elevato (per i protestanti era doveroso leggere la Bibbia per costruire il loro percorso personale di salvezza). Furono quelli i primi paesi ad entrare nell’era industriale.
Nel 1814 il Times di Londra si dotò di una macchia da stampa piano-cilindrica azionata a vapore, in grado di produrre fino a 1600 copie all’ora. Questo significa che in Inghilterra c’erano molte persone in grado di leggere e interessate a ricevere informazioni.
Questa “fame” di informazione diviene sempre più pressante con l’avanzare del secolo, spingendo alla ricerca di sistemi tecnici in grado di velocizzare la composizione tipografica per aumentare il numero delle pagine e la ricchezza di notizie, passando da quelle solo locali, alle notizie internazionali.
I giornali erano anche potenti strumenti di orientamento della ‘”opinione pubblica”. Nei primi decenni del Novecento ai giornali si affiancò la radio che in breve divenne un mezzo di informazione e di intrattenimento molto popolare. Nonché un potente strumento di propaganda, utilizzato dai governi per indirizzare l’opinione pubblica, soprattutto nei paesi a regime totalitario com l’Italia fascista e, in seguito, la Germania di Hitler.

“Fu nel corso dell’Ottocento che la necessità per l’individuo, di un grado di istruzione almeno minimo venne ad essere un requisito pregiudiziale all’avanzamento o alla mobilità sociale. Per i datori di lavoro ribadire l’importanza di «una manodopera istruita» diventò un refrain abituale. Una manodopera istruita, vale a dire accuratamente formata, dava sicure garanzie di puntualità, rispetto, pulizia, disciplina, subordinazione e via discorrendo. Una forza lavoro facile da controllare, docile, ossequiosa, desiderosa e capace di eseguire gli ordini, era quanto di più occorreva alle imprese, commerciali e industriali, in un secolo di incalzanti trasformazioni economiche. Il posto dell’alfabetizzazione in simili formulazioni non sempre equivaleva a quello di una abilità o di una tecnologia. Era piuttosto il veicolo elettivo per tutelare calori e moralità, e in questa veste fu una scoperta della prima metà dell’Ottocento. Con il modificarsi delle società sotto la spinta delle massicce alterazioni strutturali che interessarono l’Occidente, si andò alla disperata ricerca di nuovi e diversi tipi di aggregazione sociale e di formazione individuale. Nel battere questa strada, mentre cioè si tentava di dare soluzione a questo problema sociale, furono comprese le potenzialità e la forza proprie di istituzioni formali operanti su vasta scala”


Eppure, quasi in sordina, in quegli stessi anni si era fatto strada un nuovo e straordinario mezzo di comunicazione, divenuto molto popolare sin dai primi anni del ‘900: il CINEMA.


Le immagini in movimento nacquero da una “costola” della fotografia. Con la produzione industriale di pellicola in rotolo (supporto in celluloide), venne sviluppato nel 1885 il formato 35 mm da parte della George Eastman (la Kodak). Dieci anni più tardi (1895) i fratelli Luis e Auguste Lumiere,  proiettarono il loro primo film grazie all’invenzione della macchina da essi stessi messa a punto, il cinematografo.
Già altri prima di loro – il francese Etienne J. Marey e il britannico Eadweard Muybridge – avevano studiato il movimento e provato a riprodurne l’impressione proiettando fotogrammi in rapida successione, sfruttando l’effetto di permanenza delle immagini sulla retina (caratteristica fisiologica della percezione visiva umana). Con una cadenza (frequenza) dai 18 ai 24 fotogrammi al secondo, si otteneva la riproduzione di un movimento più o meno fluido (le macchine cinematografiche primitive, in realtà, non consentivano una perfetta costanza di ripresa perché erano azionate mediante una manovella).

il_fucile_fotografico_di_marey_2.png

Il “fotofucile” col quale Etienne Jules Marey studiava il movimento.

ecc81tienne-jules-marey

J. E. Marey, Studio del movimento di un uomo in corsa (1880)

pellicola 35mm

Pellicola di formato 35 mm

Cinepresa a manovella

Cinepresa a manovella

1870_C

Prassinoscopio a proiezione. Uno degli apparecchi che precedettero il Cinematografo Lumiere. Proiettava immagini disegnate su piccole lastre di vetro.

edad3

Il Kinetoscopio di Thomas A. Edison

east-ed

George Eastman e T.A. Edison provano una macchina kinetrografica

lumiere

I fratelli Luis e Auguste Lumiere


l_81165_8135d85b

Locandina del film di Michelangelo Antonioni, Il mistero di Oberwald, una delle prime opere cinematografiche per il grande schermo, girata con mezzi elettronici (1982).

A partire dagli anni ’20 iniziarono le sperimentazioni per la ripresa di immagini “televisive”. Questo sviluppo tecnologico era in qualche modo implicito nella radiofonia, di cui la televisione rappresenta una espansione. In Italia nel 1929 vi furono le prime prove negli studi dell’EIAR (che nel dopoguerra diventerà la RAI, Radiotelevisione Italiana).
Nel 1936, alle Olimpiadi di Berlino, vennero effettuate delle riprese televisive a 180 righe di risoluzione, con una scansione di 25 quadri al secondo. Già nello stesso 1936 la BBC usava una risoluzione di 405 righe a 25 quadri. In seguito, in Germania, Italia e Francia, si adottatorono risoluzioni tra le 441/455 linee a 25 quadri. Negli USA, qualche anno più tardi, si adottò la risoluzione di 525 righe a 30 quadri (60Hz).
I sistemi si basarono prima con una scansione meccanica, quindi con la scansione elettronica e, nel dopoguerra, si afferma in Europa lo standard a 625 righe e 25 quadri al secondo (50 Hz, interlacciato), consentito dalla tecnologia degli schermi a tubo catodico disponibile al tempo.
La vicenda della televisione segue un percorso del tutto diverso da quello del cinema. Sebbene anche il cinema fosse stato considerato un ottimo mezzo di propaganda politico-ideologica, in specie dai regimi totalitari del tempo, la produzione di immagini televisive, proprio per la sua parentela con la radiofonia, divenne principalmente un mezzo di informazione più che di intrattenimento (come il cinema). Questo fece si che, in breve tempo, il nuovo mezzo di comunicazione divenisse quello che è stato ed è – almeno in parte – ancora oggi: probabilmente il più potente mezzo di formazione dell’opinione pubblica mondiale, soprattutto per i ceti medi e popolari.

monoscopio_rai_60

La televisione aveva caratteristiche tecniche limitate: lo standard PAL 576i, con una frequenza di 50 Hz e una risoluzione di 576 linee rappresentava la normalità nella fruizione domestica. L’home-video era distribuito su supporti magnetici analogici (nastri) VHS o S-VHS. Anche i successivi supporti digitali (DVD-Video), pur offrendo una qualità d’immagine nettamente superiore, avevano –  ed hanno – lo stesso standard.
Intanto il cinema andava sperimentando le nuove possibilità della produzione elettronica (anni ’80) avvicinandosi “pericolosamente” alla TV. I tempi non erano ancora maturi: era necessario riversare le riprese elettroniche su pellicola per proiettare i film nelle sale. Ma con i progressi digitali, la storia subisce un’accelerazione inarrestabile. Infatti, si può affermare che con l’era digitale la distinzione tra cinema e televisione è stata praticamente annullata. E questo non in quanto “linguaggi” di comunicazione, ma per i presupposti tecnologici di cui entrambi i mezzi si avvalgono.

123_tv_600

Un televisore degli anni ’60. In Italia la tv (RAI) inizia le trasmissioni nel 1954 Non c’erano ancora trasmissioni per bambini…

http://www.raistoria.rai.it/articoli/la-nascita-della-televisione/23820/default.aspx

sony-4k-home-cinema

Un “home-cinema” in formato 4k


Nel corso del tempo il cinema era avanzato tecnologicamente grazie a pellicole migliori e migliori processi produttivi e apparecchiature sempre più perfezionate. Ad esempio, col formato 70mm  si aumentava di sei volte le dimensioni dei singoli fotogrammi (che passavano dai 16 x 24 mm del 35 mm, ai 36 x 48 del 70 mm), ottenendo una qualità d’immagine eccellente.
Quindi, col digitale attualmente televisione e cinema condividono tecnologie, formati, risoluzioni …
Analogamente, così come un tempo la fotografia e il cinematografo avevano basi comuni e condividevano molti presupposti tecnici (ad esempio, i materiali utilizzati, gli strumenti ottici e i processi chimici), così accade oggi: pixel, risoluzione, calibrazioni cromatiche e molto altro hanno in comune la fotografia e il cinema digitali.

Quello che è cambiato è sostanzialmente il rapporto che abbiamo col cinema, sia come arte che come esperienza di fruizione delle opere. La possibilità di visionare film in streaming o di su Youtube, ma soprattutto di assistere ad una proiezione con altre persone, nella penombra di una camera o di un’aula scolastica, riguadagnando in questo caso la dimensione di fruizione pubblica e collettiva dello spettacolo cinematografico.


I video nascono con l’introduzione dei sistemi di registrazione su videotape (nastri magnetici del tutto simili a quelli utilizzati nella registrazione audio analogica) delle immagini elettroniche prodotte dalle videocamere e si sviluppa fortemente con l’era digitale e la produzione di apparecchiature molto più compatte, via via sempre più economiche e facili da utilizzare.

4

Video cassetta VHS (analogica) e Digital8, standard digitale della Sony transizione verso i sistemi di archiviazione ottici e allo stato solido utilizzati attualmente.

3

Video camera professionale degli anni ’80

2

Video camera VHS degli anni ’90


Pubblicato in progettazione multimediale, tecnologia dei processi di produzione | Contrassegnato , , , , , , | Lascia un commento

LA CORNICE DEL QUADRO

L’inquadratura (e quindi la composizione degli elementi visivi al suo interno) al livello più generale dipende dalle proporzioni del frame (cornice). Questa, a sua volta, è una caratteristica fisica della macchina fotografica o della cinepresa o della videocamera utilizzata.

CORNICE+QUADRO

L’illustrazione mostra un tipico fotogramma di un vecchio film nel formato classico 4:3, detto anche Academy, ancora in uso nel secondo dopoguerra.


CINEMASCOPE

Nella stessa cornice vediamo un fotogramma nel formato CINEMASCOPE introdotto a partire dal 1953, divenuto poi a sua volta classico nel cinema americano.

I formati fotografici in uso nell’ultimo quarto del XIX secolo derivavano dalla lastra usata da Daguerre per i suoi dagherrotipi. Si trattava di materiali sensibili in fogli di forma rettangolare che partivano dal formato “lastra” pari a 18 x 24 cm (si avevano anche la “doppia lastra”di 24 x 30 cm).
Nello stesso periodo (1888) George Eastman, fondatore della Kodak, metteva in commercio una pellicola flessibile in rotolo (il roll-film di cui aveva copiato l’idea da una invenzione del 1885 di un certo Hannibal Goodwin), per il proprio apparecchio portatile (una box camera per fotografi non professionali) destinato a rivoluzionare il modo di pensare alla fotografia, prima appannaggio di professionisti o di amatori molto abili.
Questo formato in origine aveva un’altezza di 70mm e da esso, Thomas Alva Edison, il celeberrimo inventore della lampadina e del fonografo, ricavò la pellicola 35 mm perforata lungo i margini per il suo Kinetografo. Nel 1909 questo formato, accogliendo la tipologia adottata da Edison di quattro perforazioni per frame su ambo i lati, venne riconosciuto come standard internazionale. Sulla pellicola 35 mm – con l’avvento definitivo del sonoro che richiedeva l’assemblaggio di una banda laterale per la registrazione dell’audio – si producevano fotogrammi di circa 22 x 16 mm.
La stessa pellicola, che nelle cineprese scorreva verticalmente, divenne universalmente nota ed utilizzata grazie alla creazione degli apparecchi di piccolo formato i cui primo prototipo risale al 1914 (Miniaturkamera), mentre il primo modello ufficiale è la Leica Ur del 1925. Questi apparecchi usavano la pellicola 35 per realizzare fotogrammi di 24 x 36 mm, da allora nota anche come “formato Leica”.


Consideriamo un dato iniziale di fondamentale importanza: la produzione industriale della pellicola in rotolo. Abbiamo accennato alle sue dimensioni: aveva (ed ha tuttora) un’altezza pari a 70 mm.  Possiamo ottenere dal prodotto industriale di base, dei formati minori come ad esempio il classico 35 mm (mm 70 / 2 = mm 35) su cui si è basato il cinema dei primordi, ancora molto utilizzato fino ad definitivo avvento di formati panoramici e del digitale (ne parleremo più avanti).
Il formato 35 mm detto Academy (dal nome dell’Academy of Motion Picture Arts and Sciences, l’istituzione americana famosa nel mondo soprattutto per il  premio Oscar), derivava dal formato nativo del cinema muto, e a partire dal 1932 venne adottato come standard per il cinema sonoro. Le dimensioni del frame furono ridotte a 21.0 × 15.2 mm in modo da consentire la presenza della banda per la registrazione ottica del sonoro.


my_edit_on_the_20th_century_fox_cinemascope_logo_by_20thcenturydogs-d9707ki


Tra il 1952 e il 1953 fu introdotto dalla 20th Centuty Fox il formato panoramico detto CinemaScope che, grazie all’uso di lenti anamorfiche, produceva un fotogramma con un Aspect Ratio (rapporto d’aspetto dell’immagine proiettata sullo schermo)  di 2,35:1, dove si pone che per un’altezza pari a 1 (ad esempio 200 cm) si avrà una base (larghezza) pari a 2,35 (470 cm, vale a dire con un rapporto di 21 : 9).

Pubblicato in appunti, tecnologia dei processi di produzione | Contrassegnato , , , , , | Lascia un commento

Gli audio-visivi: inizio di un percorso

Tutti vediamo un gran numero di audio-visivi: film, telefilm, fiction di vaio genere, soap, serie televisive, documentari, ecc …, ai quali vanno aggiunti quelli realizzati da amici e conoscenti in vacanza, o di qualunque altro genere come concerti, o video che  documentano in modo estemporaneo accadimenti ritenuti degni di nota.
Questi ultimi, per la loro stessa natura, rappresentano una categoria a parte, perché sono come una soggettiva dello sguardo sulla realtà del loro autore e, se possibile, possono assimilarsi ai reportage televisivi non filtrati da una regia. Per inciso, va detto che il cinema negli ultimi anni ha riproposto questo “stile” detto mockumentary  (falso documentario) per simulare, in un prodotto professionale, l’aspetto di una produzione amatoriale “non strutturata”, per così dire.

Tralasciando la banale distinzione tra i prodotti amatoriali e quelli professionali, ci possiamo soffermare sull’aspetto della loro efficacia in relazione allo scopo, e individuare quali mezzi, criteri, elementi comunicativi gli autori hanno posto in essere per conseguire tale scopo.

Un esempio ci aiuterà a capire.
Pensiamo a Mad Max: Fury Road, un film di fantascienza ed azione di grande efficacia che ha riscosso un notevolissimo successo di pubblico e di critica. Lo scopo di un prodotto di questo genere è certamente l’intrattenimento.

maxresdefault
La trama, i personaggi, l’ambientazione e le azioni stabiliscono il genere e individuano un particolare pubblico (target audience), che si aspetta di vedere qualcosa di “adrenalinico”. Il quarto episodio della saga di Mad Max, girato nel 2012/13 dal regista australiano George Miller, è  un prodotto confezionato ad arte, con un limitato uso di effetti speciali e di post produzione. Un film che fa leva principalmente sulla fotografia, con inquadrature precise, pochi dialoghi e un montaggio molto serrato. Sono stati condotti degli studi che hanno evidenziato come, grazie alla precisione delle inquadrature, nonostante il montaggio rapido, lo spettatore riesca a cogliere sempre l’elemento chiave per la comprensione di quanto accade, proprio come nel più tradizionale cinema hollywoodiano.
Cosa ricaviamo da queste osservazioni? Quali sono gli ingredienti del successo? Possiamo dire che si tratta di un prodotto efficace, alla stregua di un analgesico (o, in questo caso, di uno stimolante). Naturalmente la produzione ha posto in essere tutti gli “ingredienti” giusti: il cast, la troupe, le ambientazioni e un gruppo di professionisti di alto livello a partire dal regista, tutto con l’intenzione di sbancare il botteghino.

Altro esempio.
Mi viene a mente un film quasi opposto a quello appena citato: Il cavallo di Torino, un film del 2011 del regista ungherese Béla Tarr, vincitore dell’Orso d’argento al festival di Berlino. Non saprei pensare ad una pellicola meno spettacolare di questa. MV5BMTMyNzg1MzM2Ml5BMl5BanBnXkFtZTcwMzQ5NjcxNw@@._V1_UY1200_CR90,0,630,1200_AL_
Diciamo subito che in Italia il film non è stato neppure distribuito ed è passato solo in televisione, sottotitolato, in seconda serata (non è un caso isolato).
Vincitore di un premio in una importante rassegna internazionale, sfoggia una fotografia di grande fascino, in bianco e nero. I dialoghi sono ridotti al minimo, ma quando sono presenti sono di notevole spessore (alludo al monologo del viandante sulla città in rovina a 60’ dall’inizio).

Quando si ha a che fare con un film d’autore, non si possono adottare le stesse categorie usate in precedenza per Mad Max. In un certo senso, pur utilizzando gli stessi strumenti di comunicazione (macchina da presa, dolly, carrelli, ecc.) e i medesimi principi costruttivi (movimenti di macchina, campi e piani, luci, dialoghi, montaggio, ecc.), i due film usano il linguaggio diversamente: perseguendo ognuno uno scopo diverso ed avendo ognuno un suo modo d’essere efficace nella comunicazione. Analogamente a quanto accade nella musica che pur usando le stesse note, si può arrangiare un brano di musica leggera facile ed orecchiabile o un brano dodecafonico.

(questo è il primo di una serie di articoli sui prodotti audiovisivi.
Per altri articoli e approfondimenti: https://7ttimarte.wordpress.com

Pubblicato in linguaggi, progetti, tecnologia dei processi di produzione | Contrassegnato , , , , , , | Lascia un commento

Mappe concettuali con Coogle

Seguiamo questo ottimo tutorial per introdurci all’apprendimento di COOGLE

Eccovi un semplice esempio, sviluppato attorno ad un tema che ci è familiare

COLORE

Pubblicato in Esercitazioni, Gestione dei processi produttivi, progettazione multimediale, tecnologia dei processi di produzione, tutorials | Contrassegnato , , | Lascia un commento

Flusso di lavoro di una stampa inkjet

 

Nel nostro esempio, abbiamo un semplice still life realizzato con una fotocamera digitale Nikon D800 (profilo colore impostato su Adobe 1998) con luce continua fluorescente da 5500°K (withe balance: daylight).

WORKFLOW_CMS

Flussogramma del lavoro di stampa per output su getto d’inchiostro semi-professionale (le didascalie sono tratte dall’help di Photoshop)

Pubblicato in Esercitazioni, tecnologia dei processi di produzione | Contrassegnato , , , | Lascia un commento