Wasembo

Da Lecco.
Versione del 2 dic 2017 alle 07:24 di Stemby (discussione | contributi) (Software utilizzato: + vokoscreen)

Wasembo è una lingua parlata in Papua Nuova Guinea il cui codice ISO 639-3 è "gsp". "GSP" è un acronimo che sta per GLUX Spot Project. Notare che anche GLUX a sua volta è un acronimo.

Wasembo è il più ambizioso progetto portato avanti dal GLUX negli ultimi anni. Prevede la realizzazione di uno spot in animazione a passo uno (stop motion) di 30 secondi per celebrare il venticinquesimo anniversario di Debian (16 agosto 2018).

Licenza

Tutto il materiale prodotto per questo progetto, salvo ove specificato diversamente, è rilasciato sotto licenza CC BY-SA 3.0.

Caratteristiche tecniche

Frame rate
24 fotogrammi al secondo (la frequenza cinematografica classica)
Durata
30 secondi
Rapporto d'aspetto
16:9
Lingua originale
inglese
Scala
1:6, per avere personaggi alti 25–30 cm

Per la scelta del rapporto d'aspetto, si sono tenute presenti queste considerazioni:

  • il rapporto d'aspetto della fotocamera è 1.5 (3:2)
  • quello della maggior parte dei monitor per computer recenti è 1.6 (16:10)
  • quello della maggior parte dei televisori recenti è 1.78 (16:9)
  • il rapporto d'aspetto full container secondo le specifiche DCI per i DCP è 1.896 (256:135)
  • i rapporti d'aspetto più frequentemente usati cinematograficamente sono 1.85 (flat) e 2.39 (scope)
  • la risoluzione full container 4K DC è 4096×2160
  • la risoluzione delle foto scattate con la Canon EOS 550D è 5184×3456
  • la distribuzione avverrà prevalentemente su Internet

Si è deciso infine per il rapporto 16:9. La risoluzione delle riprese sarà dunque 5184×2916; alle foto scattate con la Canon EOS 550D bisognerà togliere 2 bande (una sopra e una sotto) da 270 pixel di altezza ciascuna.

La conformità con le direttive DCI può essere verificata usando il materiale presente in questa pagina.

Storage

Per un progetto di tale portata, è quasi imprescindibile fare ricorso ad un sistema di storage per la condivisione via Internet di tutto il materiale man mano prodotto.

In questa occasione, ci siamo basati sul servizio di cloud computing offerto da Box; Box presenta tutti i principali limiti dei servizi commerciali, ma per lo meno non richiede l'installazione di software proprietario.

Ecco come configurare al meglio il proprio sistema operativo.

Innanzitutto occorre installare davfs2, per accedere a Box tramite WebDAV; su Debian (o derivate):

# aptitude install davfs2

Su Debian, riconfigurare davfs2 per ovviare a questo bug:

# dpkg-reconfigure davfs2

(rispondere affermativamente alla domanda posta).

Creiamo quindi il nostro punto di mount:

# mkdir /media/GLUX_Box

Aggiungere la seguente riga a /etc/fstab:

https://www.box.com/dav	/media/GLUX_Box	davfs	rw,user,noauto	0	0

Iscrivere il proprio utente al gruppo davfs2:

# adduser pippo davfs2

(mettendo al posto di "pippo" il proprio nome utente).

Per un montaggio al volo (e per generare i file di configurazione nella propria home), eseguire il seguente comando:

$ mount /media/GLUX_Box

(verranno richieste le credenziali).

Per evitare di dover ogni volta inserire le credenziali, è sufficiente aggiungerle in ~/.davfs2/secrets:

$ echo "https://www.box.com/dav username@example.com password" >> ~/.davfs2/secrets

Ovviamente nella stringa precedente occorre inserire l'indirizzo e-mail e la password associati al proprio account su Box, al posto di quelli di esempio.

Ora si dovrebbe poter montare la directory remota anche solo con un semplice click dal proprio file manager. Purtroppo, a causa di questo bug, si può smontare solo da root.

Idea

Alla base della sceneggiatura dello spot c'è un motto; eccone alcuni presi in considerazione:

  • «Il frutto del lavoro di una grande/grandiosa/meravigliosa comunità: Debian.»
  • «Debian vi serve anche in vacanza. Da 20 anni.»
  • «Debian: in ogni stagione. Da 20 anni.»
  • «[Debian] [ti] libera. Da 20 anni.»

La prima idea è stata scartata perché l'anniversario cade in piena estate, e dunque risulta difficile immaginare un'ambientazione lavorativa; la seconda è scaturita in conseguenza della precedente considerazione, ma non si sono trovati spunti per svilupparla; l'ultima è molto generica.

Di conseguenza l'idea più efficace è risultata essere quella legata alle stagioni, che rende bene anche il concetto di "sistema operativo universale". Le stagioni vengono infatti rappresentate in parallelo alle diverse fasi della vita, in ambiti di utilizzo disparati.

Soggetto

Si può prendere in visione, oppure scaricare, da qui. Sono disponibili anche i sorgenti LaTeX, da compilarsi con pdflatex.

Sceneggiatura

Si è deciso di non scrivere la sceneggiatura, e di procedere direttamente al disegno dello storyboard.

Ecco di seguito alcune idee su come si potrebbe sviluppare il soggetto.

Transizione tra scena 1 e 2: un cerchio si chiude sul sorriso del bambino.

Scene 2 e 3 collegate tra loro da un long take, e separate da una dissolvenza incrociata (durante il long take, a macchina ferma) che ci porta dall'atmosfera estiva ad una cupa atmosfera autunnale. L'inquadratura all'inizio del long take potrebbe comprendere la panchina con sopra la ragazza, un lampione e un albero; nella dissolvenza la ragazza scomparirebbe assieme alle foglie dell'albero (che resterebbe spoglio), per terra si potrebbero vedere le foglie marcescenti mentre il lampione da spento ad illuminato si rifletterebbe in una pozzanghera ai piedi della panchina.

Il long take, se c'è il tempo sufficiente (da verificare), potrebbe riprodurre il celebre movimento di macchina di El Rancho in Quarto potere; l'ambientazione ovviamente sarebbe diversa, e porterebbe lo spettatore all'interno della sala server (magari attraverso i condotti di ventilazione).

Nella scena 3 si potrebbe inquadrare brevissimamente lo schermo, con il seguente prompt:

david@hal9000:~$

Studio dei personaggi

Qui si possono trovare diversi spunti: si tratta dei video contenuti in questo DVD.

Per registrare l'artista all'opera mentre disegna, si può usare il registratore incluso in Gnome Shell attivandolo e disattivandolo con Ctrl+Alt+Shift+R.

Storyboard

Lo storyboard è stato realizzato in modo tradizionale, disegnando a matita su normalissimi fogli formato A4 preventivamente stampati con questo modello.

Il modello è stato disegnato con Inkscape. Si è partiti tracciando un rettangolo di dimensione 88,889 mm × 50 mm (rapporto d'aspetto 16:9); si è poi tracciato un altro rettangolo molto più piccolo. Entrambi i rettangoli sono stati disegnati senza riempimento, con contorno di 0,2 mm. Si sono poi allineati i due rettangoli lungo il bordo destro, e raggruppati. Il gruppo è stato clonato 7 volte. Gli 8 gruppi così ottenuti sono stati disposti con lo strumento "Oggetto → Righe e colonne..." (4 righe, 2 colonne, spaziatura verticale 35, spaziatura orizzontale 20). Infine si sono raggruppati gli 8 gruppi in un unico gruppo, che è stato centrato rispetto alla pagina in orizzontale, e abbassato in modo da avere il bordo inferiore spesso quanto il bordo laterale. Il file SVG è scaricabile da qui.

Realizzazione dei pupazzi

  1. Disegno del personaggio
  2. Scultura in plastilina/creta/FIMO/Cernit/DAS
  3. Stampo in gomme siliconiche RTV: come distaccante usare vaselina oppure acqua saponata
  4. Montaggio scheletro
  5. Inserimento dello scheletro nello stampo
  6. Colata lattice (o gommapiuma all'interno + lattice all'esterno)
  7. Colorazione
  8. Aggiunta vestiti

Per la cottura dei pezzi, quando questi sono molto articolati, si può procedere con cotture successive, in modo da non rischiare di rovinare il lavoro già fatto. Ad esempio, per personaggi con espressione fissa (quindi senza maschere removibili), si può fare una prima cottura della testa calva, e poi aggiungerci sopra i capelli.

Testa

Materiale:

  • 2 dischi magnetici al neodimio (si possono trovare ad esempio qui, o su eBay)

Cuocere i pezzi della maschera montati sulla testa, in modo che non si deformino col calore; inoltre limitare la cottura a 130° e 15 minuti, per evitare di bruciare le parti in resina epossidica.

Occhi

Questa sembra essere un'ottima tecnica, del resto molto simile a quella usata dai fratelli Flynn.

La cosa più comoda sarebbe trovare delle sfere di plastica già pronte, della dimensione e del colore giusto (da verificare, probabilmente un bianco leggermente rosato). Eventualmente, se risultassero introvabili, qui è spiegato come realizzarsele in proprio (anche se non è chiarissimo come estrarre i modelli dal calco).

Mani

Ecco come realizzare le mani.

Materiale:

Riprese

Al momento darktable non supporta il live view; per questo motivo per le riprese abbamo ripegato su Entangle.

Purtroppo anche Entangle ha diversi limiti:

Configurazione di Entangle

  1. selezionare dalla barra degli strumenti la directory in cui inserire le foto scattate;
  2. impostare lo spegnimento del monitor durante lo scatto: Edit → Preferenze → Interface → Blank screen when capturing images;
  3. visualizzare il rapporto d'aspetto desiderato: Edit → Preferenze → Image Viewer → Apply mask to alter aspect ratio;
  4. fare in modo che non esca dal live view dopo lo scatto: Edit → Preferenze → Capture → Continue preview mode after capture.

Lo spegnimento del monitor consente di ottenere un'illuminazione più costante nella stanza, riducendo così il rischio di sfarfallio dell'animazione.

Trattamento delle foto

Occorrerà probabilmente ritagliare tutte le immagini, per impostare il corretto rapporto d'aspetto. Ecco come ottenere questo risultato con l'opzione -shave di GraphicsMagick:

gm mogrify -shave <width>x<height> nomefile.est

Al momento darktable non dispone di un modulo per esportare in JPEG 2000.

Suggerimenti ricevuti via mailing list:


For best color, you would want to keep RAW sequences as far into the pipeline as possible. Some apps let you continue to tweak color etc. in RAW after placing in a timelines environment. The downside is RAW sequences have poor playback performance, so you might want to use proxies. If your post apps don't support RAW sequences, you can transcode to high bit depth codec or image sequence. Just make sure to keep your workflow at 12-bit or greater (16-bit would be ideal) and maintain control of color management.

I recently did the mastering and DCP for trailer for stop motion project headed for IMAX theaters. We keep everything RAW in After Effects and rendered the JPG2000 straight from RAW. Results were perfect, all the color subtlety and dynamic range was maintained into the DCP. Created MXFs and DCP with OpenDCP and played fine on IMAX/Doremi system in Paris.

This is for After Effects but has good info on color management in general - it's a real key to maintaining quality.

http://www.adobe.com/devnet/aftereffects/articles/color_management_workflow.html


stephen van vuuren


I think you should just create everything in darktable (make all the edits to your RAWs), then export to 16-bit tiff in sRGB / smth else, then use OpenDCP or some another tool to convert to XYZ and export to DC-compliant jpeg2000.

Best regards,
Yuri Mamaev

Encoding video

Questi sono dei buoni punti di partenza per sperimentare la soluzione migliore.

Primo test riuscito:

$ ffmpeg -r 8 -i %05d.jpg test.webm

Ecco il risultato.

Ora occorre leggere bene il manuale di FFmpeg, scegliere attentamente codec, bitrate, ecc.

Per le immagini probabilmente useremo il formato TIFF RGB, che è gestito sia da FFmpeg che da OpenDCP.

Aggiornamento: FFmpeg risulta deprecato su Debian. Provare avconv come suggerito.

Sottotitoli

Dalla mailing list di OpenDCP:


openDCP only writes SMPTE subtitles that are implemented in a MXF file. you need a SMPTE xml input file but the number of servers that can actually play that kind of format are very low. it brings more issues and is not very advisable. subtitles should be used in an interOP 24p "old" DCP only but openDCP does not provide the functionality for that unfortunately. you could always do it manually though, maybe this helps: http://www.michaelcinquin.com/tools/DCP/DCP_subtitling (in my experience rendered-in/burnt-in subtitles are the way to go for any format/framerate)

Eric Sebalsky, 29 agosto 2013

Distribuzione

YouTube è stato escluso in quanto non è possibile pubblicare su tale piattaforme opere rilasciate sotto licenza CC BY-SA.

Software utilizzato

Hardware

Qui alcune indicazioni riguardo le fotocamere in ambito stop motion.

TODO

In grassetto i punti che possono interessare maggiormente i membri del GLUX.

  • Calibrazione monitor
  • Realizzare un logo per Wasembo [Marco]
  • Modellizzare il processo, al limite accontentandosi di un diagramma di Gantt [Gian]
  • Studiare i personaggi, e le loro espressioni [Giorgia]
  • Realizzare una maquette dei personaggi in plastilina
  • Prove di colore in 2D
  • Realizzare una maquette digitale dei personaggi, colorando con GIMP una foto delle sculture in plastilina (ecco come)
  • Realizzare lo storyboard (qui, qui, qui, qui e qui qualche dritta per movimenti di macchina, transizioni, ecc.) [Giorgia]
  • Realizzare l'animatic []
  • Finire di scrivere il software che permette di programmare i movimenti di macchina e le impostazioni della fotocamera in un'inquadratura (ShotCalc) [Stemby]
  • Studiare se e come sia possibile impostare manualmente i vari parametri della macchina fotografica, in particolare apertura (con diaframma in stop down), fuoco e tempo di esposizione [Maxxer]
  • Testare Entangle [Maxxer, Stemby], stabilendo e documentando come impostare la macchina per le riprese
  • Testare darktable [Maxxer, Stemby], verificando che si possano effettuare modifiche su un gran numero di foto in automatico
  • Testare l'effetto speciale "monitor" con GIMP [Stemby]
  • Registrare uno screencast di Cheese, da usarsi come riferimento durante le riprese (tipo rotoscope) [Stemby]
  • Scrivere un plugin per darktable o Entangle di assistenza all'animazione a passo uno, che evidenzi le differenze fra i frame come qui (onion skinning) e qui oppure qui [groll]
  • Finanziare il progetto:
  • Preparare i dispositivi da usare nelle scene:
    • PC (desktop/notebook/netbook) con software per fotografare tramite la webcam
    • dispositivo mobile (smartphone?)
    • server
    • tablet con software per ricevere cartoline virtuali
  • Comporre la colonna sonora [Daniela]
  • Realizzare una DAW per la registrazione delle musiche, interamente basata sul software libero [Stemby]
  • Stabilire quante tracce audio registrare: 2 o 3?
  • Registrazione della colonna sonora [Stemby]
  • Contattare aziende per sentire se sono disponibili a fornire modellini dei loro prodotti (lampioni, panchine, ecc.)
  • Trovare un locale dove sistemare il set
  • Realizzazione della scenografia (prendendo eventualmente in considerazione il green screen per alcune inquadrature) []
  • Progettazione con software CAD dello scheletro
  • Costruzione dello scheletro
  • Realizzazione dei pupazzi (qui vi è qualche idea davvero molto molto molto molto interessante)
  • Realizzazione dei costumi e degli accessori
  • Colorazione dei pupazzi
  • Acquisizione/realizzazione della strumentazione:
  • Esercitarsi ad animare a passo uno
  • Spoglio della sceneggiatura
  • Tracciare il piano di lavorazione
  • Recuperare un ColorChecker
  • Riprese; vestirsi di scuro, e stare fermi!
  • Documentare adeguatamente le riprese
  • Bilanciamento del bianco e correzione cromatica
  • Animazione (FFmpeg) [Stemby]
  • Sincronizzazione audio/video
  • Aggiungere i titoli di coda: una buona strada sembrerebbe usando OpenShot, oppure Kdenlive; qui come realizzare con Inkscape il testo da animare; in alternativa usare (La)TeX per il testo (bisogna probabilmente creare una classe)
  • Curare l'accessibilità (sottotitoli, audiodescrizioni); qui un'altra guida simile (entrambe in buona parte obsolete). Ecco un video che illustra una semplice procedura possibile; qui una pagina (da aggiornare) sul wiki di Debian che offre una panoramica sul software disponibile e un possibile workflow per la sottotitolazione
  • Authoring
  • Controllo con MediaInfo
  • Disegnare la locandina
  • Iscrizione a concorsi come Corti a Ponte
  • Distribuzione
  • Valutare se usufruire di FrameFactor per vendere stampe dei singoli fotogrammi

Per i posteri

Chi volesse cimentarsi nella tecnica di ripresa a passo uno (stop motion), potrebbe trovare utile la funzionalità di cancellazione del basamento via software. Dovrebbe quindi studiare come realizzarla con software libero.

Altro argomento che dovrebbe affrontare è quello della sincronizzazione delle labbra col parlato.

Tenere d'occhio SpiderOak, che dovrebbe rilasciare in un futuro non troppo lontano il suo client come software libero. FileRock dispone già di un client libero: da provare. Sarebbe bene comunque cercare di essere il più possibile indipendenti; in tal senso si consiglia di valutare alternative ai servizi commerciali di cloud computing, provando ad esempio a mettere in piedi un server accessibile attraverso il protocollo WebDAV (vedi ownCloud) oppure usando GlusterFS (vedi queste guide). Esistono anche servizi commerciali basati su ownCloud, come PortKnox. In alternativa a ownCloud esistono anche OpenStack e Xen Cloud Platform. Altra strada che si potrebbe forse seguire è quella di BitTorrent Sync (da studiare).

Oltre all'uso del software libero, sarebbe interessante provare anche dell'hardware aperto, come la videocamera apertus° o la fotocamera Frankencamera.

Studiare bene le tecniche di produzione di un film stereoscopico (in 3D): sarebbe interessante realizzarlo con software libero e hardware quanto più possibile aperto.

Verrà presto rilasciato il codice di Lightworks (con che licenza?) in versione multipiattaforma: si tratta di un editor audio/video professionale che potrebbe rientrare in un futuro workflow che preveda l'uso esclusivo di software libero.

Sarebbe forse meglio disegnare lo storyboard direttamente in digitale. Ecco un workflow usando Krita.

Sitografia

Ringraziamenti

Ringraziamo sentitamente, in ordine rigorosamente alfabetico:

  • Daniel P. Berrangé, per aver adattato Entangle alle nostre esigenze
  • Joshua Flynn e Nathan Flynn, per aver documentato passo passo sui loro blog le tecniche usate per realizzare i loro film
  • Matteo F. Vescovi, per aver realizzato il pacchetto ufficiale Debian di Entangle