Вы находитесь на странице: 1из 28

Saiba o que é DCP, o formato digital que

invadiu a Mostra
As informações estão atualizadas até a data acima. Sugerimos contatar o local para confirmar as informações
DE SÃO PAULO
38
Recomendar

O cinema, assim como ocorreu com a fotografia, caminha para a digitalização


total do processo, desde a captação, passando pela finalização, terminando na
exibição. No meio do percurso surgem variadas alternativas, que são deixadas
de lado. No meio desse caos digital, o DCP (Digital Cinema Package) desponta
como padrão.

Cópias neste formato começaram a aparecer há cerca de quatro anos na Mostra


de Cinema. Em 2011, foram 27 filmes no formato. Esta 36ª edição, que começa
nesta sexta-feira (dia 19) e segue até 1º de novembro, conta com
aproximadamente 70% de longas em formato DCP, incluindo os restaurados
"Lawrence da Arábia", "Tubarão" e "Life and Death of Colonel Blimp".
"Nosferatu", que encerra a maratona cinematográfica no Auditório Ibirapuera,
será exibido em 35mm.

• Acesse a página especial da Mostra de Cinema


• Confira 16 filmes premiados da Mostra de São Paulo
• Veja fotos das divas que abrilhantam os filmes da Mostra
Divulgação

"Coronel Blimp - Vida e Morte", de Michael Powell e Emeric Pressburger, será exibido em DCP
O QUE É DCP

O DCP é como um arquivo de computador, só que ele segue normas de


qualidade definidas pela SMPTE (Society of Motino Pictures and Television
Engeniers), que atende a demanda da DCI (Digital Cinema Initiatives) ---
empresa independente formada por sete grandes estúdios, dentre eles Warner
Bros., Sony Pictures e Universal Studios--, para que o resultado final esteja no
padrão de um filme em película. No que diz respeito à projeção, estipula-se um
projetor de no mínimo 2k (duas mil linhas de resolução).

Não se deve confundir DCP com outros modos de cinema digital de empresas
como Mobz e Auwe, que se utilizam de projeção em vídeo HD. Mas vale
ressaltar que a qualidade final é resultado de todo o processo e não só da
exibição. Filmes independentes, captados com equipamentos mais em conta,
terão um resultado inferior.

Segundo José Francisco Neto, especialista em cinema digital da ABC


(Associação Brasileira de Cinematografia), não existe projeto de implementação
da tecnologia no país. O que há, no entanto, é a Recine, lei publicada no Diário
Oficial da União no dia 24 de setembro, que prevê a isenção de alguns
impostos para a compra de equipamentos, sejam eles para exibição digital ou
não.

De acordo com Adhemar Oliveira, dono de complexos como Espaço Itaú de


Cinema e Cine Livraria Cultura, espera-se que o incentivo reduza em até 70% o
custo de implementação. Até agora a implementação da tecnologia necessária
podia chegar a 400 mil reais por sala.

Para Adhemar, a projeção digital em DCP tende a ser tecnicamente mais


perfeita do que a película, que pode ter pequenas partículas de sujeira e
trepidar durante a projeção "A diferença é que no digital você perde esse
'respiro', fruto destas pequenas imperfeições da película. Mas isso não é
necessariamente ruim, é só uma diferença que um olho técnico percebe".
Divulgação

O clássico restaurado "Nosferatu", de F.W. Murnau, é um dos poucos filmes que serão exibidos
em 35mm
OS PROBLEMAS NA EXIBIÇÃO

Mas essa tecnologia tem seus defeitos também. Para evitar a pirataria, o DCP
possui um sistema de segurança rigoroso. O arquivo é criptografado e só pode
ser lido após ser liberado por uma KDM (Key Delivery Message), que a rigor é
uma extensa sequência numérica.

O problema é que é necessário uma KDM por sessão e, se ela tiver algum erro,
o DCP continua bloqueado. Outra desvantagem é que, como qualquer arquivo
digital, o DCP pode estar corrompido, e a projeção pode parar no meio da
exibição do filme.

Testes são feitos antes da projeção, mas dado o grande número de filmes que a
Mostra traz, a probabilidade de erros é maior. No Festival do Rio, encerrado dia
11 de outubro, algumas sessões foram interrompidas devido a problemas com
DCP.

No ano passado a organização da Mostra alugou equipamento para reproduzir


cópias DCP em cinemas que não tinham esta tecnologia, mas isso não evitou
algumas dores de cabeça. Neste ano, esse procedimento não será feito. No site
da Mostra é possível ver em que formato os filmes serão exibidos.

DCP É O SUBSTITUTO DO CINEMA EM PELÍCULA


DCP (Digital Cinema Package) é o invólucro de arquivo digital que está se tornando o padrão de
distribuição e exibição do cinema digital no mundo, tanto nos festivais de cinema quanto nos circuitos
comerciais.
Há quem diga que em poucos meses a película será inteiramente substituída na distribuição e exibição
de filmes no cinema comercial pelo DCP (Europa e Estados Unidos já tinham, ao final de 2012, a maior
parte de seus cinemas com projetores digitais, enquanto o Brasil, à mesma altura, estava com 25% de
suas salas nesse formato). Em 2014 a distribuição de filmes em película terá praticamente
desaparecido. É provável que a película vá se tornar apenas um requinte de qualidade para as
produções que desejarem uma alta qualidade fotográfica na hora de captar imagem. Ainda assim a
maioria dos filmes comerciais já está sendo feita em formato digital, e as empresas que produziam os
negativos estão em dificuldade, em concordata ou deixando de produzir negativos de filmes (ver aqui
texto com esses dados: http://www.abcine.org.br/artigos/?id=1022&/projecao-digital-os-desafios-da-
transicao-no-brasil ). Mesmo filmar em película poderá se tornar demasiadamente oneroso ou
impraticável.
O DCP engloba tanto um arquivo de vídeo e audio do filme a ser exibido (além de arquivos de dados)
quanto o projetor específico para ler o pacote DCP nas salas de cinema. Os cinemas trocarão (já estão
trocando) o seu projetor de película por um projetor de DCP. Parece haver uma disposição da indústria
americana para que essa troca se encerre até o final de 2013.
Um filme em DCP pode ter os tamanhos de 2K e 4K. No 2K os tamanhos são de 1998x1080, com
aspect ratio de 1.85:1 e de 2048x858, com aspect ratio de 2.39:1, o aspecto anamórfico ou
cinemascope do DCP, aquele mais longo. Em 4K pode ser de 3996x2160 (com janela de 1.85) e
4096x1716 (com janela de 2.39). Estes são os novos padrões de tamanho e forma nas salas de
cinema.
É claro que meu interesse em tudo isso é para o cinema independente, para o cinema dito de arte ou
autoral - aquele que não é desde o início um projeto pertencente à empresa produtora com finalidade
principalmente comercial.
Para o cinema indie a padronização do DCP como formato de cinema significa que, ao se falar em
cinema digital, não se está falando em "cinema digital" em sentido amplo. Ou seja, um filmmaker
independente pode ter uma câmera que capte imagem na mesma qualidade digital próxima aos filmes
que estão no cinema (comercialmente ou nos festivais), mas, ao mesmo tempo, os filmes que estão lá
não foram finalizados propriamente num formato digital "puro". O DCP é uma espécie de invólucro do
arquivos de audio, vídeo e outros dados, e tem uma produção à parte, não fazendo parte da cadeia de
finalização de um vídeo em um programa de edição de vídeo. Existem softwares próprios (e caros) para
se gerar os DCPs e "laboratórios" (estúdios, em verdade) especializados em testar sua qualidade. Pelo
menos por enquanto é assim que a situação está configurada. Entre a ilha de edição e as salas de
cinema agora existem os "laboratórios" de DCP, em substituição aos laboratórios de finalização em
película.
Os programas de edição de vídeo mais comuns (Premiere Pro, Final Cut Pro e Avid) não exportam
vídeo em formato DCP. Ainda que um vídeo finalizado por um desses editores em formato MOV ou
AVID e tamanho 2K possa ter a mesma qualidade que um DCP de 2K, os cinemas não estarão abertos
a qualquer outro formato que não o produto entregue no "pacote" DCP. Ou seja, quando se fala que um
cinema comercial exibe filmes digitais ou que um festival aceita filmes em formato digital não significa
que se abriu o "gargalo" da distribuição cinematográfica em condições de igualdade entre o cinema
comercial e o cinema independente.
Existem, claro, festivais de cinema que aceitam em real igualdade de condições vídeos de tamanhos
1920x1080 (o full HD), 2K ou 4K em formato mov ou ProRes (este último possivelmente o codec de
vídeo com a mais alta definição na atualidade, e que é acessível ao cinema independente); mas esses
festivais são raros. Apenas os festivais muito profissionais e com grandes financiamentos aceitam o que
podemos chamar de cinema digital em seu formato "in natura", sem precisar ser transformado em
película ou DCP para receber as mesmas atenções que os filmes de maior orçamento e "maior poder
de chegada".
Um primeiro bom lado de se padronizar o DCP como formato do padrão digital é tentar diminuir a
deformação dos filmes digitais no momento de sua exibição. É claro que isso seria possível sem tentar
fechar novamente o mercado de distribuição também no mundo digital; mas aí, claro, não estaríamos
nos referindo a uma indústria, e o DCP justamente está sendo padronizado pela grande indústria do
cinema com o intuito também de se proteger, devido à possibilidade de criptografar o DCP para evitar
violação ou cópia não autorizada do arquivo.
Outro complicador levantado pela necessidade de "conversão" dos arquivos digitais propriamente ditos
para DCP é a diferença de gama de cores. Existe um Open DCP (que é um programa com código
aberto em desenvolvimento para a criação de arquivos DCP em tamanhos 2K e 4K - veja aqui: https://
www.apertus.org/opendcp-article ) mas o grande limitador pode ser a diferença de gama de cores. É o
que é discutido (literalmente com raiva, em alguns momentos) nesse outro link: http://
wemakemovies.org/resources-2/post-production/screening-formats-2/ .
No texto do link anterior são também resumidas as alternativas de formato para se enviar filmes para
festivais, e os pros e contra de cada uma. A conclusão do autor é que um Blu-ray (desde que projetado
corretamente) pode oferecer quase a mesma qualidade que um DCP 2K, e sem todo o trabalho e custo
adicional que a produção do DCP exige. Isso minimiza, claro, os problemas técnicos de se finalizar um
filme em DCP para enviar a festivais, mas não os problemas, digamos, de triagem na seleção dos
festivais. O autor só não menciona os festivais (e já não são poucos) que aceitam os arquivos digitais
sem precisar de mídia física (por exemplo, pelo uso da plataforma WithoutaBox (https://
www.withoutabox.com/), cujo uso tem se tornado um padrão em vários festivais). Nesse caso, os
festivais mais abertos especificam quais os codecs de vídeo são os mais indicados para envio,
frequentemente algum H264 (um MOV, por exemplo) e o envio se faz via online, por meio de cadastro
no WithoutaBox.
De qualquer maneira, no festivais BlueRay, MOV e ProRes tendem a ser vistos como uma categoria
mais amadora de cinema do que aqueles filmes que chegam em película ou DCP. Se o festival tem
uma comissão de seleção diminuta, mal remunerada, direcionada ao cinema comercial ou já
predisposta a seguir a pré-seleção feita pelos editais estatais de fomento à cultura, ou simplesmente se
torna uma comissão exaurida diante da quantidade de filmes que são enviados em um forma digital
mais livre, o melhor mesmo é finalizar o trabalho em DCP e com audio em Dolby Digital, o que
encarece o processo e torna necessário recorrer aos editais e à política cultural, mas serve como um
diferencial para a seleção.
É preciso lembrar que a maioria dos filmes enviados a festivais são experimentais ou puras
brincadeiras trash. Assistir um filme trash ocasionalmente pode ser engraçado, mas assistir uma
sequência deles um dia após o outro pode ser bem sofrido. Os festivais, portanto, que estão cumprindo,
na prática, a função de pinçar algumas coisas no meio do "lixo", terminam por ter dois tipos de seleção:
a formal e uma outra, a imprevisível, que é informal e improvisada diante de uma quantidade enorme de
filme que ninguém quer assistir. Para quem está iniciando sua trajetória em festivais, o primeiro
obstáculo é fazer o seu filme ser ao menos verdadeiramente assistido pela comissão de seleção do
festival, diferenciando-se da massa de filmes ruins. Gostando ou não de ambas seleções (a oficial e a
informal), é preciso saber que elas existem e é inerente ao processo como se encontra.
O lado melhor dos DCPs sem dúvida será o barateamento da produção de cópias de um filme ao ser
distribuído a várias salas de exibição. Para o cinema independente, quando chega às salas de cinema,
ter que fazer várias cópias em película era um grande problema, devido ao custo. Os DCPs podem ser
duplicados como se duplicam arquivos digitais, pelo menos do ponto de vista técnico.
É possível se concluir, por hora, que há níveis de complexificação na finalização de um filme em cinema
independente pelos quais se pode ir passando na hora de levá-lo a festivais, desde algo mais simples e
barato até um formato já bem próximo do comercial.
Passo 01: finalizar um curta-metragem em tamanho full HD (1920x1080) e com som stereo ou 5.1 (de
preferência, neste último caso, Dolby Digital). Enviá-lo aos festivais que aceitarem nesse formato
através de envio online ou por HD ou pendrive. Ou enviá-lo em Blue Ray ou mesmo em DVD para
aqueles festivais que apenas aceitarem mídias físicas. Deve-se ter em conta que esse envio será
também um primeiro teste. Se o curta não for selecionado em nenhum festival mas houver bastante
confiança da equipe (principalmente ao compará-lo aos outros filmes selecionados na mesma
categoria), pode ser que valha a pena distanciar um pouco a sua finalização da média, a fim de que
aumente a sua chance de ser visto pela comissão de seleção.
Passo 2: "esticar" um pouco o seu curta-metragem captado em full HD para 2K e tentar finalizá-lo em
DCP aberto de 2K. Lembre que isso pode ser trabalhoso ou caro, devendo se cogitar se vale a pena
fazê-lo ou não.
Passo 3: se o objetivo é fazer um longa-metragem, o melhor é que já se produza o filme em 2K, ou
maior, e já saiba que finalizá-lo em DCP será necessário. Enviá-lo, então, aos festivais, nesse formato,
ou reduzi-lo para enviar em full hd (já que há festivais que padronizaram o envio em DVD, BlueRay ou
arquivo digital por via online, a fim de reduzir a confusão de mídias e formatos). Para um curta em que
se deseja elevar o nível de profissionalismo, isso também pode ser seguido.
Esse, pelo menos, é o panorama de momento; mas já é visível todo um conjunto de ações "contra-
industrial" a fim de se popularizar a criação de DCPs fora dos laboratórios padronizados.
O fim da película cinematográfica está se dando sem alarde e sem grande comoção. Em parte isso se
deve ao fato de que a criação e mesmo a projeção de DCPs poderá aumentar a diversidade de
produção e exibição de filmes. Certamente o fim da película traz uma perda estética para o cinema,
além de significar o fim de uma era, que começou romântica, foi artística e terminou monopolista. A era
do DCinema pode significar o fim dos monopólios da finalização e da distribuição de filmes em alta
qualidade. Como na música, a filmografia pode se tornar "tribal" ou individual para quem for ativo em
buscar aquilo que lhe interessa.

http://www.abcine.org.br/artigos/?id=1022&%2Fprojecao-digital-os-desafios-da-transicao-no-brasil

20.12.2012
Projeção digital: os desafios da transição no Brasil
A transição digital é uma realidade. Entre prós e contras, a digitalização da projeção promove um
debate que envolve toda a cadeia cinematográfica

Por Danielle Noronha


Apresentação

Caros Leitores,
É com grande satisfação que apresento a quinta matéria a ser publicada no nosso site desde agosto último. Estamos
chegando ao final de 2012, nos aproximando da meta traçada de publicar mensalmente, uma nova matéria no nosso site.
Isto está se tornando possível, graças ao empenho da jornalista Danielle Noronha, que com suas matérias, tem
possibilitado ao nosso site ser a ligação entre a ABC e seus associados, seus apoiadores e os demais profissionais da
cadeia da nossa cinematografia.
Nada melhor para encerrar o ano do que uma matéria sobre um tema que ainda merece a atenção de todos os
envolvidos na cinematografia brasileira: A digitalização total do processo cinematográfico. Digitalização essa que vai
revelando novas questões, a cada etapa do processo, que dizem respeito a todos os elos da cadeia; produtores,
realizadores, técnicos, distribuidores, exibidores e administradores do cinema brasileiro.
O processo de transição acelerada para o Digital foi tema da Semana ABC 2012 e queremos com esta matéria relembrar
os principais pontos debatidos naquela ocasião. Pontos estes que afetam o resultado técnico e artístico do trabalho de
todos nós. Problemas de razoável complexidade e que demandam uma atuação conjunta de todos para conseguirmos
superar o caótico estado atual do processo de digitalização no país.

Acreditamos que a análise deste quadro de problemas e o encaminhamento de soluções só poderão ser realizados
através da colaboração entre todos os setores envolvidos com o espetáculo cinematográfico, e não podem ser reféns, de
modelos de negócios ou de políticas estabelecidos anteriormente .
Ao preparamos esta matéria pretendemos, além de retratar o momento que vivemos nesta transição tecnológica,
recolocar a necessidade de ouvirmos a todos os envolvidos. A ABC acredita que ainda é tempo para aproveitarmos a
ocasião para não repetirmos erros do passado e completarmos a transição para o Digital em novos moldes,superando
paradigmas históricos que nos obrigam a aceitar as coisas como elas sempre foram. A ABC acredita que existem padrões,
formas de controle e de legislar que podem garantir a qualidade do nosso trabalho nas diferentes mídias, salas e aos
diferentes públicos. A seguida repetição de problemas de exibição nos principais Festivais, Salas de Cinema e Mostras no
nosso país, depois de um ano da divulgação do nosso manifesto “Atitude Digital” confirma a importância de
aprofundarmos este debate e é o que aqui fazemos com esta matéria.

Desejo a todos um ótimo 2013, com esperança de que consigamos avançar na direção mais acertada neste processo de
digitalização da nossa cinematografia.

Cordialmente,
Lauro Escorel
Presidente da ABC

Projeção digital: os desafios da transição no Brasil


A transição para o cinema digital (DCinema) é uma realidade em todo mundo. Porém, a discussão que antes pairava na
digitalização da captação agora tem um novo foco: a digitalização da exibição, que entre prós e contras – normais em
qualquer transição deste porte – promove um debate que envolve toda a cadeia cinematográfica.

Entre diversos questionamentos, a conversão digital dos cinemas é um tema que vem sendo discutido há alguns anos e,
o que antes podia parecer como algo para o futuro, agora é imprescindível e encontra-se em pleno curso de execução. A
transição digital significa a substituição dos projetores 35 mm – no mercado há mais de 100 anos – por aparelhos
digitais. Dito desta forma pode até parece uma simples reposição de tecnologia, porém o tema envolve questões muito
complexas.

Em relação à tecnologia, a projeção de película e a projeção digital são completamente diferentes. Como explica o
engenheiro eletrônico, José Francisco Neto, ABC: “no projetor de película, a luz atravessa um obturador que bloqueia a
passagem da luz durante 24 vezes por segundo para que o filme possa mover-se. Por isso é possível perceber a tela
piscando levemente. Já o digital usa microespelhos para “ligar” e “desligar” cada pixel das cores primárias (vermelho,
verde e azul) fazendo que suas cores mudem de estado em cada fotograma do filme. Com isto a tela não fica mais
apagada durante algum tempo e a eficiência é maior. Não existem também as oscilações mecânicas do movimento da
película e a projeção é completamente estável”. No que diz respeito às cores, o engenheiro esclarece que a película
responde melhor aos tons escuros e saturados enquanto o digital tem mais gammas de cores luminosas. Já em relação
ao som, há uma grande mudança, pois o DCinema alcança uma qualidade muito superior. Nos projetores 35 mm é
utilizado o som analógico na banda ótica ou na forma digital (Dolby Digital, SDDS, DTS) com compressão e, como explica
o técnico de mixagem José Luiz Sasso, ABC, no DCP (Digital Cinema Package) o formato de áudio utilizado é o WAVE,
sem nenhuma compreensão, o que garante uma qualidade muito superior.
A projeção digital é a última etapa que faltava para a possibilidade de total digitalização do processo cinematográfico, que
se inicia nas filmagens (em que grande parte dos projetos já é feito com câmeras digitais), passa pela pós-produção (a
primeira etapa a migrar para o digital, que já se encontra 100% digitalizada) e, agora, cada vez mais, termina na
exibição. Países como a Holanda e a Noruega estão com suas salas de cinema 100% digitalizadas. Outros, como Estados
Unidos, França e Japão alcançaram a média de 80% de telas digitais.

Na contramão deste processo, a África e a América Latina demonstram dificuldades em acompanhar a rápida
implementação da projeção digital que acontece em diversos lugares do mundo. Segundo dados divulgados pelo Film
Journal, a taxa atual de digitalização de tela na América Latina é de 33%. Se não incluirmos os três países com a maior
quantidade de salas de cinema digitalizadas (México, Colômbia e Equador), o número cai para 23%. O Brasil, considerado
um dos principais mercados da região (apenas atrás do México), tem cerca de 600 telas digitais, a grande maioria em
redes estrangeiras, o que corresponde a 23% de suas salas de cinema (atualmente, o Brasil possui cerca de 2350 salas).

No início, grande parte das telas digitais do país (da mesma forma que em todo o mundo) foi impulsionada pelo cinema
3D. A primeira vista, o cinema 3D é mais atrativo para o exibidor, já que se pode cobrar mais pelos ingressos e ainda ter
a possibilidade de atrair mais público, questões que não podem ser exploradas da mesma forma pela exibição digital em
2D. Porém, aqueles que desejam se manter no mercado exibidor já não têm outra escolha. Até o final de 2013, os
grandes estúdios de Hollywood irão interromper a produção de cópias em 35 mm no mercado norte-americano e, em
pouco tempo, isso também repercutirá no resto do mundo. Além disso, logo a película deixará de ser uma opção. Tieres
Tavares, presidente da Beyond ALL, LLC, lembra que “a Fuji não aceita novos pedidos de películas e a Kodak está em
concordata, esperando que o governo americano decida qual seria o destino de sua linha de produção de película. Estes
fabricantes tiveram uma redução de 70% na demanda de película. Ou seja, o fim da película passa ser a nova motivação
para a digitalização no mundo”.
Desta forma, a discussão não é mais sobre migrar ou não migrar para o digital – já que a mudança é inevitável – mas
passa por pontos como: os custos, os padrões em todas as etapas relacionadas à exibição, e, principalmente, a
qualidade.

Problemas na exibição
A transição para a projeção digital ocorre por diversos motivos. Primeiro, a qualidade atingida pelo projetor digital é
similar à qualidade que alcança um projetor 35 mm, como acredita José Augusto Blasiis, coordenador de operações do
CasablancaLab. Em segundo lugar, há diversas questões práticas que impulsionam a transição para o digital. Para o
diretor de fotografia Marcelo Trotta, ABC, o custo da cópia é um dos responsáveis pela mudança, o que facilita a
distribuição. Porém, como já era possível imaginar, a mudança para a projeção digital vem acompanhada de diversos
problemas. Assim como em vários lugares do mundo, é possível afirmar que no Brasil, nesse início de transição, a
projeção digital ainda não tem a qualidade esperada.
São diversos os problemas que ocorrem durante a exibição: mídias que não abrem, filmes fora de foco ou com alteração
nas cores. Muitos profissionais quando chegam às salas de cinema têm se deparado com um filme totalmente diferente
daquele que foi finalizado na edição. Os profissionais envolvidos com a cinematografia desenvolveram diferentes
metodologias e padrões técnicos com o objetivo de preservar e alcançar a melhor qualidade da imagem e do som.
Porém, a falta de estabelecimento de um padrão para as projeções digitais no país, que garantam aos profissionais e aos
espectadores a melhor exibição possível, está causando diversos problemas que podem ser notados nos circuitos
comerciais, em festivais e mostras que são realizados no Brasil, como ocorreu com as duas últimas edições da Mostra
Internacional de Cinema de São Paulo.
A ABC levou em consideração esses problemas e divulgou em outubro do ano passado o manifesto “Atitude Digital”, em
que demonstrou a necessidade de uma discussão mais ampla sobre “recomendações técnicas para a imagem e o som
nas mídias audiovisuais digitais”. Nesse processo, quem mais perde com a falta de padrões e qualidade dos filmes são os
espectadores, que muitas vezes nem sabem que não estão assistindo ao filme que foi preparado para eles.

O problema dos altos custos para implementação do cinema digital causou outra questão que merece ser mencionada. A
falta de padrão inicial para a transição no país levou muitos exibidores a utilizarem como alternativa o cinema eletrônico
(eCinema), que utiliza projeção em vídeo HD. Blasiis explica que o eCinema é o mesmo aparelho que você pode ter na
sua casa, só que ele é utilizado numa tela de cinema.

Como afirma José Francisco Neto, o cinema eletrônico tem o custo muito menor que o DCinema, também sofre de falta
de padronização e a qualidade é muito inferior. Para que o cinema eletrônico tivesse um resultado melhor também seria
necessário estabelecer alguns padrões, como a luminosidade da tela, ponto de branco e contraste mínimo, como pontua
Neto: “Muitas vezes temos telas escuras porque o projetor não é adequado ao tamanho da sala ou com as cores
totalmente distorcidas por falta de manutenção adequada”.

Neste sentido, muitos dos problemas que se atribui ao cinema digital, na verdade dizem respeito ao cinema eletrônico.
Para Neto, “há que se descontar parte dessa grande insatisfação com o DCinema porque o cinema eletrônico, salvo raras
exceções, está há anos causando arrepios e insatisfação na maioria das salas e festivais, onde a regra é ter problemas
muito variados incluindo: masterizações precárias, cópias de má qualidade, projetores em péssimo estado, lâmpadas
totalmente desgastadas, etc”.
Tieres Tavares acredita que o oportunismo de muitos que tiraram vantagens desta falta de padrão e também a falta de
informação de vários exibidores são os principais fatores que levaram aos problemas nesta transição. “Sofreram os
produtores, diretores bem como sofreu o público que foi ao cinema pagando muito e recebendo como produto imagens
lavadas, sem contraste, muitas vezes com taxas de compressão inaceitáveis. Classificar um produto como “cinema digital”
e entregar menos do que “cinema eletrônico” foi muita falta de responsabilidade e serviu somente para confundir mais
ainda um mercado que tinha pouca informação”, pontua Tavares. Como o eCinema é pior que projeção em 35 mm, a sua
única vantagem foi resolver alguns problemas nos festivais, como deixar a locomoção das mídias muito mais rápida,
elucida Blasiis.

DCI e o padrão digital

Entre uma grande variedade de formatos possíveis para a projeção digital, o DCP (Digital Cinema Package) tem
despontado como o padrão. O DCP é a cópia de exibição que é distribuída para os exibidores. Como explica José Augusto
de Blasiis, o formato foi escolhido como padrão, em primeiro lugar, por uma imposição do mercado. O DCP segue as
normas de qualidade estabelecidas pela SMPTE (Society of Motion Pictures and Television Engineers), que atende aos
critérios definidos pela DCI (Digital Cinema Initiatives), um comitê criado pelos sete grandes estúdios de Hollywood
(Warner, Fox, Universal, Paramount, Disney, DreamWorks e Sony). Desta forma, se o exibidor quer exibir filmes destes
estúdios há a necessidade de seguir os padrões que foram estipulados por eles para a projeção de seus filmes. As
principais exigências colocadas pelo DCI são: a compressão de imagem em JPEG 2000 (intra-frame) e a resolução de 2K
(dois mil e vinte e quatro pixels na linha de resolução horizontal) para cinemas menores ou 4K (4 mil e quarenta e oito
pixels na linha de resolução horizontal) para salas com mais de 500 lugares.

Os projetores com padrão DCI são capazes de exibir imagens de altíssima qualidade e, segundo Blasiis, tecnicamente é
um padrão excelente, mesmo que menor – o que no futuro irá mudar o aspecto de tela no mundo. Porém, como coloca
Tieres Tavares, quando falamos do padrão DCI não se pode levar em consideração apenas os projetores. O padrão DCI:
“é o conjunto de normas e equipamentos com certificação DCI que garantem a qualidade e segurança do conteúdo a ser
exibido. Segurança para toda a cadeia produtiva: produtores, distribuidores, exibidores”. Desta forma, necessita que toda
a cadeia cinematografia esteja atenta aos padrões estabelecidos para que seja possível alcançar a qualidade desejada
para o filme.

Neste sentido, os problemas podem ocorrer na pós-produção do filme, na mídia que será exibida ou/e por erros no
projetor e não apenas na projeção propriamente dita. Segundo Erick Soares, engenheiro de suporte a vendas da Sony e
especialista em tecnologias e produtos no mercado de Broadcast, os problemas que estão ocorrendo nas projeções
também podem ser resultado de questões que ocorreram durante a captura, produção e pós-produção. Primeiro, Soares
se refere ao uso de resoluções e formação de imagem na produção/pós-produção inadequada ou incompatível com o
sistema e resolução da projeção, gerando conversão dentro do projetor DCI que não tem como garantir o padrão.
Depois, menciona a necessidade do uso de frame-rates que sejam adequados e compatíveis também a fim de evitar
artefatos de movimento e, por último, fala da parte de calibração de cores, que na captura, produção e pós-produção já
deve ser feita e monitorada levando em conta o espectro DCI.

A segunda etapa sujeita a problemas é a preparação do máster e a confecção do DCP. José Francisco Neto ilustra que
adequar o máster ao formato do cinema digital implica na manipulação das cores, emendas de rolos digitais, sincronismo
de som e de legendas, além do endereçamento de canais de áudio. “Cada parâmetro destes deve ser cuidadosamente
revisado antes, durante e depois de se fazer o DCP”, explica Neto. Depois, o processo de confecção de um DCP consiste
na conversão desses arquivos de imagem, som e legendas para um formato que segue regras bem específicas. Nesta
conversão, a imagem sofre compressão e o som não. Desta forma, um longa-metragem fica reduzido a cerca de 180 GB,
enquanto seu máster ocupa 1,2 TB. Porém, “a parte mais complexa não é a conversão, mas sim a preparação do máster,
pois este raramente está no formato adequado. Só depois de feita esta adequação, é que o primeiro DCP é feito”, pontua
o engenheiro.
O colorista Sergio Pasqualino recorda que, como o DCP é um arquivo digital, podem acontecer vários tipos de problemas
no áudio e/ou na imagem: “O arquivo pode travar, não abrir, não copiar, podem aparecer frames parados, ter delay entre
o áudio e a imagem, o áudio e a imagem podem ficar fora de padrão, causando uma imagem lavada ou um áudio
rachado e etc.” Para o colorista, a melhor forma de evitar esses problemas com o máster é ter um método de trabalho:
“Procuro sempre apresentar os filmes que supervisiono num mesmo lugar, assim posso garantir ao diretor de fotografia e
o diretor do filme a qualidade do meu serviço. Fica difícil controlar a qualidade do filme se você não tem um lugar
padronizado para avaliar, você pode achar escuro, claro, com maior ou menor saturação de cor, sem definição, entre
outros problemas e não saber se é a projeção ou seu máster”.

Para prevenir os possíveis erros na confecção de um DCP, Neto esclarece que as empresas especializadas podem utilizar
processos de controle de qualidade rígidos e revisão criteriosa. “Já os “aventureiros” geralmente não conhecem o
processo a fundo e nem conseguem revisar o DCP adequadamente, o que contribui bastante para denegrir o cinema
digital, pois é mais fácil botar a culpa no DCP, como se faz hoje em dia”, afirma o engenheiro. “Temos hoje, pela falta de
conhecimento geral dos processos, que a culpa de uma projeção ruim nunca é do sujeito que fez um máster ruim ou uma
cópia ruim. Também nunca é do exibidor que instala mal e não dá manutenção em seus projetores. O culpado sempre é
o pobre DCP, a pobre cópia que nem tem como se defender e justamente uma cópia que, por ser digital, é réplica
idêntica em qualquer lugar que for acionada”, conclui.

No caso do áudio, que migrou para o digital muito antes da imagem, também é necessário realizar alguns testes de
verificação para garantir a qualidade do áudio do DCP. Quando o som migrou para o digital, no que diz respeito à
finalização, não houveram os mesmos problemas que estão acontecendo com a imagem, porque já havia uma bagagem
e os padrões estavam bem estabelecidos. Porém, o áudio também sofre na projeção, mas como menciona Zé Luis Sasso,
essa não é uma questão que acontece apenas atualmente pela transição digital: “O áudio no Brasil sempre sofreu com a
projeção pela falta de padrão nas salas”.
Para que o áudio não tenha problemas durante a exibição é necessário utilizar alguns mecanismos de verificação da
qualidade em estúdios que tenham os equipamentos corretos. Para isso, Sasso, que possui em seu estúdio equipamentos
para a verificação do filme, em parceria com outros profissionais, disponibilizou gratuitamente um “TESTE DE ÁUDIO
PARA DCP EM 5.1”. O técnico explica que com o teste é possível fazer um rápido check-up nas salas de cinema DCP e,
assim, saber como está o nível do áudio entre as caixas de som e o seu sincronismo. “No arquivo em DCP, a imagem está
a 24 FPS, o áudio 5.1 a 24 Bits / SF48kHz, duração de 3 minutos e 15 segundos e é totalmente auto explicativo”,
esclarece Sasso.
Outro problema que tem acontecido com frequência com o DCP está relacionado ao sistema de segurança da cópia. Com
o objetivo de minimizar a pirataria, cada DCP possui uma KDM (Key Delivery Message), isto é, uma chaves de acesso que
limita a reprodução de cópias. Conforme esclarece Neto, “este processo é a geração e administração do KDM, que não
passa de uma senha numérica. Somente com o KDM gerado especificamente para seu projetor é que um exibidor pode
reproduzir a cópia”. As chaves têm sido um dos erros que acontecem com o DCP, pois algumas vezes ocorre do projetor
não reconhecer a chave e o filme não tocar.

Por último, outra questão que precisa ser levada em consideração é o cuidado com o projetor, pois apenas adquirir um
projetor no padrão DCI não garante a qualidade da projeção. “Não basta apenas comprar o sistema. Tenho visto na
esmagadora maioria das salas uma instalação inadequada. Isto é, para funcionar adequadamente, é preciso que seja
feito um alinhamento correto na instalação. A manutenção não é tão complicada, mas não pode ser abandonada”,
considera Neto.
Como garante Erick Soares, o uso do projetor DCI assegura trabalhar dentro das normas e padrões estabelecidos,
atestando compatibilidade de conteúdo, porém: “há a necessidade da manutenção e calibração periódica e adequada do
projetor DCI a fim de se garantir os corretos ajustes de colorimetria, brilho e contraste, para se assegurar a imagem
adequada”.
A falta de padrão e de manutenção dos projetores são fatores responsáveis por causar as diferenças na projeção de um
mesmo filme que podem ser percebidas quando assistido em diferentes salas. O diretor de fotografia Adrian Teijido, ABC,
explica que no Brasil a projeção digital ainda não tem nenhum sistema sério de aferimento técnico do projetor: “então
encontramos desajustes de contraste, brilho, chroma e luminosidade da projeção. Sem falar na diferença entre os
projetores, eu tive a possibilidade de assistir ao filme Gonzaga em duas salas e as projeções eram completamente
diferentes”, conta Teijido. Marco Oliveira complementa: “É muito comum quando finalizamos um filme, ainda na fase de
testes, constatar diferenças gritantes na projeção, muitas vezes entre salas de um mesmo complexo. Essa disparidade se
dá, na maioria das vezes, pela falta de uma calibragem correta nos projetores, pois o arquivo DCP foi desenvolvido de
uma forma em que o projecionista não tem alternativa de modificá-lo ou exibi-lo de forma errada (com exceção dos
aspectos), justamente para diminuir a probabilidade de erro na exibição”.

A questão da projeção ainda remete ao tema da formação adequada dos projecionistas, o que nem sempre acontece. O
estabelecimento de padrões requer mão de obra especializada. Erick Soares menciona a importância do profissional que
trabalha nesse novo contexto digital saber lidar e aprender conceitos como formação de imagem digital, processamento
de sinais, correção de cores, espectro de cores e calibração, formatos de arquivos e padrões DCP, incluindo as diversas
resoluções e frame-rates.

Para o distribuidor Jorge Peregrino, a formação dos projecionistas deve ser de responsabilidade dos exibidores: “Os
fabricantes de projetores digitais têm escritórios no país e já fazem esse tipo de formação, assim como as empresas de
instalação, manutenção e de venda dos equipamentos digitais. Agora, e como sugestão à Ancine [Agência Nacional do
Cinema], a agência deveria encontrar formas de financiar a melhoria de mão de obra, através de programas destinados
aos exibidores”.

Exibição: quem paga a conta


O primeiro grande problema encontrado para a implementação do sistema no país foram os altos cursos para os grupos
de exibição. No caso do Brasil, o custo inicial por sala estava em cerca de R$ 200 mil. Este problema não era restrito
apenas no caso brasileiro. Em todo o mundo, os altos valores da transição estavam barrando o desenvolvimento da
projeção digital. Para ajudar a solucionar este problema foi criado nos Estados Unidos o VPF (virtual print fee).
O VPF é um modelo de financiamento que tem como objetivo estimular a substituição dos projetores 35 mm pelos
digitais. Como explica José Augusto de Blasiis, o modelo consiste numa remuneração que o estúdio ou o distribuidor dá
ao exibidor pela cópia digital, isto é, pela opção do exibidor em projetar pelo formato digital, o responsável pelo conteúdo
arca com parte dos custos, o que conota ao VPF uma forma de garantir o financiamento do equipamento pelo exibidor.
Conforme conta Blasiis, o VPF nos Estados Unidos tem contrato com os exibidores até 2019. Segundo matéria do Filme B,
nos modelos mais comuns, o pagamento da VPF não é feito diretamente ao exibidor, mas a uma terceira parte, chamada
de integrador, que realiza a ponte entre as partes interessadas. Com o objetivo de adotar o VPF também no Brasil, 17
grupos exibidores nacionais (que totalizam 750 salas) formaram um consórcio no final de 2011 com a finalidade de
alcançar maior negociação de VPF com os estúdios/distribuidores. Blasiis esclarece que a principio o VPF terá no país a
mesma sistemática que ocorre nos Estados Unidos.

Além do VPF, há ainda outros estímulos para que a transição ocorra no país. A Ancine lançou uma linha de financiamento
do Fundo Setorial do Audiovisual com o intuito especial de ampliar a projeção digital. Através do programa “Cinema Perto
de Você”, instituído pela Lei 12.599/2012, que prevê a ampliação, diversificação e descentralização do mercado de salas
de exibição cinematográfica no Brasil, é possível obter linhas de crédito e investimento para implantação de complexos de
exibição, com projetores DCI. Além disso, o Regime Especial de Tributação para o Desenvolvimento da Atividade de
Exibição Cinematográfica (RECINE), um dos eixos do programa, aprovado em maio de 2012, isenta os exibidores em
cerca de 30% dos custos de implantação e modernização de salas, “pois suspende a exigência das contribuições para o
PIS/PASEP e COFINS sobre a receita bruta, bem como as incidentes na importação de máquinas, aparelhos, instrumentos
e equipamentos para utilização em complexos de exibição, além de materiais de construção”, segundo informações
divulgadas pela Ancine.

Paralelamente à discussão sobre o cinema digital e os projetores com padrão DCI, a distribuição por satélite surge como
uma alternativa a que, em breve, os exibidores poderão recorrer. Conforme explica David Trejo, da Cinecolor, empresa
que vem realizando testes para implementação do sistema na América Latina, a proposta é oferecer um sistema de
distribuição de conteúdo digital via satélite aos cinemas. “Também poderíamos dizer que a Cinecolor Sat criou uma
estrada digital entre o distribuidor e o exibidor, aonde poderão trafegar filmes (DCP´s), trailers, publicidade, conteúdo ao
vivo, etc. Os objetivos mais importantes são: acompanhar o avanço da digitalização dos cinemas no Mundo e melhorar a
eficiência e custos da distribuição de conteúdo para todos os circuitos de cinema no Brasil e da toda América Latina”,
complementa Trejo.

Trejo afirma que a distribuição por satélite trará maior agilidade na entrega dos filmes aos cinemas e, consequentemente,
maior flexibilidade na programação e menos custo de distribuição. Tecnicamente o sistema já está funcionando e,
segundo Trejo, agora começará a instalação das antenas parabólicas e receptores de satélite em alguns complexos que já
confirmaram a sua participação nessa etapa de testes.

Blasiis conta que a distribuição por satélite ampliará as opções para o exibidor, como a possibilidade de realizar a
projeção com sinais de programação ao vivo, mas também pode prejudicar os conteúdos alternativos, já que a
distribuição será muito mais rápida. Blasiis ainda lembra que não há nenhuma legislação para o uso de satélites no Brasil.

Para Peregrino: “a digitalização de cinemas já é história. Distribuição por satélite é o futuro, e bem próximo”.

Outras questões
Além de toda essa discussão sobre padrão e meios de adequar os cinemas brasileiros à realidade digital, a partir das
quais talvez pudessem ser criadas normas técnicas de projeção, inclusive pela ABNT, há outras questões que não podem
ser esquecidas. Um primeiro questionamento que pode ser feito é: o que acontece com os laboratórios que trabalham
com película? Como é possível notar, em pouco tempo a película fará parte apenas da memória, então, quais são as
alternativas possíveis para estas empresas?

Outro ponto importante é em relação à criação de uma legislação de proteção à cópia digital feita no país. De acordo com
Blasiis, há uma legislação de copiagem nacional de película, porém, o mesmo não ocorre com a cópia digital, em que
muitas cópias já vêm prontas de fora e apenas algumas são replicadas aqui.

Para Neto, a nacionalização dos serviços do cinema digital é mais uma discussão que está totalmente atrasada. “Nada
impede que já venha tudo pronto, com legendas e dublagem inclusive. A replicação é mais vantajosa se feita aqui, mas
há um baixo valor agregado a este serviço. Já a distribuição de cópias físicas (discos) tem que ser local para ser viável,
mas quando começarem a se usar as redes (satélite, fibra, etc) para transferência dos dados, coisa se vai se complicar
ainda mais”, conclui.

O colorista Marco Oliveira lembra que a questão da disparidade nas projeções entre salas de cinemas no Brasil não é
exclusividade do digital. “Diferenças de cor e densidade em virtude de lâmpadas deficientes em projetores, ou rolos com
cores diferentes entre si, provenientes da falta de controle de qualidade nos laboratórios, já eram comuns ao espectador.
A diferença agora é que, com a implementação do cinema digital, criou-se uma ilusão de que tudo ficaria mais fácil,
banalizando alguns procedimentos, funções e cuidados essenciais. Os padrões necessários já existem, a questão é que
não são respeitados”, diz o colorista. O que nos remete a um importante questionamento: já que a mudança é
indiscutível por que não aproveitar a transição para mudar também a cultura de exibição do país?

http://dcpcinema.blogspot.com.br/2014/01/o-que-voce-precisa-saber-para-finalizar.html

O que você precisa saber para finalizar seu filme em DCP


Este foi um tutorial organizado para uso pessoal, sem fins comerciais. O uso que você fizer dele é por sua conta e risco.
Seu compartilhamento foi uma questão de princípio.
Atualizado até agosto de 2013.
Quem somos: www.tragikhouse.com.
Este é um post eminentemente técnico. Para uma introdução mais geral, leia DCP é o substituto do cinema em
película

1 - O que é DCP e a sua veloz substituição da película cinematográfica: http://www.abcine.org.br/artigos/?


id=1022&/projecao-digital-os-desafios-da-transicao-no-brasil

2 - O comitê da indústria cinematográfica (chamado DCI) que está determinando o padrão tanto para os
arquivos de DCP quando para os projetores usados nos cinemas: http://www.dcimovies.com/.

RESUMO DAS ESPECIFICAÇÕES TÉCNICAS vigentes em 1012/13:


Technical specifications [edit]
The DCP root folder (in the storage medium) contains a number of files, some used to store the image and audio contents, and some other used
to organize and manage the whole playlist.[4]
Picture MXF files [edit]
Picture contents may be stored in one or more reels corresponding to one or more MXF files. Each reel contains pictures as MPEG-2 or JPEG
2000 essence, depending on the adopted codec. MPEG-2 is no longer compliant with the DCI specification. JPEG 2000 is the only accepted
compression format.
· Supported frame rates are:
· SMPTE (JPEG 2000)/
· 24, 25, 30, 48, 50, and 60 fps @ 2K
· 24, 25, and 30 fps @ 4K
· 24 and 48 fps @ 2K stereoscopic
· Maximum frame sizes are 2048×1080 for 2K DC, and 4096×2160 for 4K DC. Common formats are:
· SMPTE (JPEG 2000)
· Flat (1998×1080 or 3996×2160), ~1.85:1 aspect ratio
· Scope (2048×858 or 4096×1716), ~2.39:1 aspect ratio
· HDTV (1920×1080 or 3840×2160), 16:9 aspect ratio (~1.78:1) (although not specifically defined in the DCI specification, this resolution is DCI
compliant per section 3.2.1.2).
· Full (2048×1080 or 4096×2160) (~1.9:1 aspect ratio, official name by DCI is Full Container)
· 12 bits per pixel precision (36 bits total)
· XYZ colorspace
· Maximum bit rate is 250 Mbit/s (1.3 MBytes per frame at 24 frame/s)

(OBS.: já houve um Interop Mpeg como padrão aceito, mas depois ficou apenas o SMPTE Jpeg2000).

Sound MXF files [edit]


Sound contents are stored in reels, too, corresponding to picture reels in number and duration. In case of multilingual features, separate reels are
required to convey different languages. Each file contains linear PCM essence.
· Sampling rate is 48,000 or 96,000 samples per second
· Sample precision of 24 bits
· Linear mapping (no companding)
· Up to 16 independent channels.

As completas especificações técnicas divulgadas por DCI em 2012 estão neste doc linkado e em anexo: http://
dcimovies.com/specification/DCI_DCSS_v12_with_errata_2012-1010.pdf

O DCP também é chamado de padrão DCI, pois em verdade o DCP não é uma extensão de arquivo, e sim
vários arquivos em extensão MXF. Muitas vezes se fala em DCI Cinema ou DLP, por causa da tecnologia dos
projetores).

3 - Há duas formas de gerar um DCP a partir da master de um filme: a profissionalizada em laboratório e a de


home studio.
3.1 - a forma profissionalizada é repassando o trabalho a profissionais que fazem apenas esta etapa da cadeia
produtiva de um filme. Coloco aqui como exemplo esta empresa que está oferecendo este serviço à distância e
a um preço acessível para o cinema independente: http://www.quvis.com/. Alguém também disse que faz
nessa: http://universalpost.tv/ ; e nessa: http://www.sv2studios.com/dcp/dcp-digital-cinema-package-
creation/ (aqui os preços são até colocados online: http://www.sv2studios.com/dcp-digital-cinema-package-
pricing-online/585/ ). O serviço, aliás, pode ser contratado a distância, com trocas de dados pela internet, mas
creio que o problema disso esteja em não se poder testar o resultado pessoalmente. Mas como o preço é
acessível, vale a pena o risco, desde que se tenha como testar depois o resultado enviado. Aqui uma
outra: http://www.indiedcp.com/. Muitas parecem ser produtores indie oferecendo serviços indie. Em países
como EUA e Canadá já existe toda uma profissionalização em torno do cinema indie.

Não encontrei no Brasil quem esteja fazendo DCP e anunciando abertamente na internet o serviço, como
acontece em outros países. Achei essa notícia http://jconline.ne10.uol.com.br/canal/cultura/cinema/noticia/
2012/03/18/cineasta-pernambucano-finaliza-filme-em-dcp-36172.php e encontrei esse site, mas no qual não
havia o nome de empresa, nem localização e nem contato, e a última notícia atualizada datava de 2011: http://
dcpbrasil.com/ . No Brasil o serviço deve estar ainda muito ligado a grandes produtoras, e possivelmente sendo
oferecido a um preço muito caro para o cinema independente; pelo menos por enquanto.

3.2 - produzir um DCP em home studio significa incluir esta etapa á linha de produção simplificada de um filme
independente. Na prática, é aprender com tutoriais e depois aprender fazendo e debatendo na internet com as
pessoas que estão fazendo a mesma coisa. Vou listar alguns passos mais comuns descritos em alguns
tutoriais; mas deixando claro que eu não testei as formas de fazer.

ESTE VIDEO FAZ UM BOM RESUMO DO PROCESSO, COM BOA VISUALIZAÇÃO DA ORGANIZAÇÃO E
DOS PASSOS A SEREM SEGUIDOS (TENHO ESSE VÍDEO TAMBÉM BAIXADO E ARQUIVADO NO
GOOGLE DRIVE):
http://www.youtube.com/watch?feature=player_embedded&v=5DKYY3DuDA8#!

4 - Exportar audio e imagem de seu editor de vídeo. O programa que será usado mais à frente (e que monta o
DCP) não recebe a imagem em vídeo, e sim em "foto", quer dizer, em arquivo de cada frame (e mesmo se o
programa receber video, mpeg, mais provavelmente, não use video, pois as especificações DCI só aceitam, de
2012 em diante, o Jpeg2000). Mais especificamente os DCPs são criados com arquivos Jpeg2000 de 12 bits e
com espaço de cor XYZ (2.6 gamma), e não com videos finalizados em H264 de 8 bits sRGB (como os da
Canon 5D) ou ProRes com espaço de cor Rec709 ou sRGB (lembrando que o Rec709 é um padrão que te
espaço de cor bem semelhante ao sRGB, e que o Rec709 é o padrão da televisão HD). Ou seja, será preciso
exportar a imagem em Jpeg2000 a partir do editor de vídeo. Nada muito difícil, pois isso é um caminho natural
dos programas de edição. Os problemas que surgem nesse ponto são outros: o Premiere Pro, por exemplo,
não exporta Jpeg2000 de 12 bits. Então é preciso exportar Tiffs de 16 bits a partir do After Efects (pois os Tiffs
exportados diretamente do Premiere parecem ser de 8 bits) e depois levá-los para o programa a seguir, que
fará a conversão para Jpeg2000 de 12 bits (extensão .j2c, que em verdade é um arquivo de dados de cada
frame, com cada frame ocupando algo entre 300 Kb a 1500 Kb).

Alguma discussão interessante sobre a conversão de cores está aqui:https://groups.google.com/forum/?


fromgroups#!topic/opendcp/r_EUGu8tFYg

Como um filme de 100 minutos tem 144 mil frames (a 24 fps), isso significa que as imagens em um DCP 2K
terá em torno de 140 a 250 GB de espaço em HD - e lembrando que os HDs para os projetores DCP (ou DCI)
devem ter formatação própria (ver adiante).

OBS.: No After, "Certifique-se de sua composição tem uma profundidade de bits de 16 bits por
canal, e nas configurações do módulo de saída escolha trilhões de cores em vez de milhões de
cores. Quaisquer outras combinações lhe dará uma sequência TIFF de 8 bits".

Um desenvolvedor de software criou um plugin para After e Premiere que possibilita ao Premiere
exportar diretamente arquivos .j2c. Isso encurta o caminho. O plugin é este (http://
www.fnordware.com/j2k/) e o blog onde se discute os resultados é este (http://fnordware.blogspot.com.br/
2012/05/j2k-27.html). Como tudo o mais nessa vida de edição, carece de ser testado, mas parece que muitas
pessoas estão usando.

Também no Premiere se pode usar um plugin que se chama Rovi Totalcode, que agiliza exportações e fornece
exportações de Jpeg2000 (mas é preciso testar se tem os 12 bits necessários) e também do audio compatível
com Dolby Digital Professional 5.1 para levar aos DCPs. No site da empresa é possível comprar ou testar o
plugin, que potencializa as exportações do Premiere Pro em várias questões, como se vês nas especificações
do produto (mas aqui também se diz que é necessário outros dois pacotes de plugins juntamente com este para
se ter tudo isso - mas eu não encontrei esses outros dois plugins entre os produtos da empresa): http://
www.rovicorp.com/products/distribution/content-production-tools/totalcode-for-adobe-premiere-
pro.htm#specifications

5 - utilize o Photoshop para abrir uma das imagens estáticas TIFF ou j2c e conferir o tamanho e a
profundidade de bits.

5 - Se não foi usado o plugin gerador do Jpeg2000 diretamente do Premiere, é preciso usar um
programa que converta os arquivos Tiffs gerados no After para .j2c. O próprio programa criador
de DCP que mencionaremos a seguir faz isso.

5 - Uma vez exportadas as imagens em .j2c, o próximo passo é abri-las com algum programa
DCP Creator. O programa mais mencionado na internet é o OpenDCP, por ser de código aberto. Há
pessoas da indústria que criticam o resultado, mas não sabemos se isso faz parte da guerra da
indústria contra os programas open source ou se o resultado é necessariamente sofrível. De
qualquer maneira, abaixo listo alguns DCP creators pagos. Todos são de pequeno tamanho, não
sendo, portanto, programas complexos - possivelmente se tornarão bem baratos em pouco
tempo, aqueles que hoje ainda são caros.

OpenDCP - o de código aberto: http://www.opendcp.org/. Ele tambémparece estar aqui: https://


code.google.com/p/opendcp/. Para usá-lo aqui há um bom guia de configuração (este guia também está em um
-mail separado): https://code.google.com/p/opendcp/wiki/Documentation. A vantagem do OpenDCP é a
quantidade enorme de guias explicando-o, e a quantidade enorme de pessoas que tem-no usado com êxito.
EasyDCP Creator - parece que é um dos mais consagrados, ou dos primeiros a surgir. 2300 euros, mas vi
gente dizendo que é bem ruim pelo preço: http://www.easydcp.com/product.php?id=1
Wraptor 3.0 - 700 euros: http://www.quvis.com/filmmakers/
Quvis. Esta empresa tem um acessível e está prometendo lançar um DCP Player barato e que lê o DCP com o
espaço de cor XYZ e com o som, para se checar se tudo está ok depois de finalizado (pois este é o grande
problema da produção em home studio): http://www.quvis.com/filmmakers/
Final DCP parece bem referenciado a um preço baixo: http://www.magnamana.com/products/finaldcp/. Ele faz o
DCP a partir de um video mov ou AVI, para se tornar mais simplificado para o usuário médio. Este aqui e outros
também têm versão gratuita com marca d'água para teste.
DVD-o-matic. Este é totalmente free, desenvolvido de forma semelhante ao OpenDCP. Ele faz DCP a partir de
vídeo. Não vi muitas referências a ele, parecendo que ele é dos mais novo: http://carlh.net/software/dvdomatic/

Aqui nesse link da wikipedia há um excelente quadro com vários DCP Creators e suas características: http://
en.wikipedia.org/wiki/Digital_Cinema_Package

Caso se tenha criados 2jc com baixos bits, também se pode usar o OpenDCP para convertê-los. (para ver as
imagens abaixo em alta resolução é preciso ir ao link original de onde elas foram copiadas em abaixa
resolução)

6 - Criar os arquivos MXF, que são os núcleos de video e audo do DCP. Primeiro com os Jpeg2000.

Depois com os arquivos de audio audio. Para o DCP cada arquivo de audio deve ocupar uma faixa mono wave
de 48 KHz/24bits. O 5.1 terá 6 faixas monos, e o 2.1 três faixas mono (o programa mostra a opção de fazer
stereo, mas eu li em algum lugar que o cinema comercial tem exigido no mínimo 2.1, e o 5.1 sendo o mais
comum)

7 - Depois, na guia DCP, "use o Título Generator para definir os vários componentes e metadados
relacionados ao projeto. Cada um desses itens afeta o nome do pacote de DCP e vai deixar o
projecionista eo projetor facilmente identificar se este é um resumo, uma característica, as
dimensões do quadro, se é 2D/3D etc."

8 - Gerando o DCP.
Esta etapa combina a seqüência de imagens e arquivos de áudio para criar o DCP. Não vai
demorar muito e quando estiver pronto, você acaba com uma pasta contendo os arquivos MXF
contendo áudio e vídeo e alguns arquivos XML com metadados.

9 - Formatando e salvando em HD compatível com os projetores de DCP no cinemas. É preciso


ver a formatação adequada, e o tipo de HD adequado. O arquivo DCP final será copiado desse HD
que for enviado pata o HD interno do projetor de DCP. A formatação não pode ser o mais comum
(NTFS, pelo menos não em princípio) e nem o FAT32 (devido a sua limitação de arquivo único em
4GB). Parece que o mais seguro em termos de padronização é utilizar formatação ext2 ou ext3,
as formatações para Linux. Mas como fazer tal formatação a partir do windows? Leia este
tutorial http://www.networkedmediatank.com/wiki/index.php/USB_Slave e use este pliugin citado no
tutorial http://www.ext2fsd.com/ . No mac, use este plugin: http://www.paragon-software.com/home/extfs-mac/.
E isso também pode ser usado: http://gparted.sourceforge.net/livecd.php .

Aliás, no fórum linkado a seguir alguém disse que a combinação mais segura é GParted + ext3, para não
acontecer de o servidor de cinema digital não ler o HD. Essa informação parece ser segura, e outra coisa é
que não se deve usar HD alimentado por USB (a conexão é USB, mas com fonte externa de energia). (Aqui há
o relato desse problema, e como o post é de 2011, vê-se que dede esse ano o OpenDCP vem sendo usado,
testado e tem funcionado): http://dcinemaforum.com/forum/index.php?topic=110.0 .

Lembro aqui que uma sala de cinema digital é composta principalmente de projetor + servidor; em outro texto
eu comentei sobre os equipamentos de projeção, e aqui coloco como exemplo um servidor comum no mercado,
que é o Dolby DSS200. Ao que parece, quem faz a leitura do HD com o DCP é o servidor, e não diretamente o
projetor.

10 - o audio do DCP parece não ter mistério. Tem que ser canais mono de PCM wave sem compressão 24 bits,
48 ou 96 KHz. Ou seja, não é o codec ac3 da Dolby. Para um som 5.1, são 6 canais mono separadamente, que
o Open DCP ou outro DCP creator organiza. Aqui há algumas referências para o nível de audio, para se calibrar
a monitoração na edição, na hora de fazer a mixagem: http://www.freedcp.net/?page_id=160 . Se não for 5.1,
que seja 2.1, deixando as outras faixas vazias (pistas sem audio, caso o dcp creator não aceite 2.1
propriamente). Som apenas stereo é aconselhável não enviar para exibição em salas de cinema. O auto falante
central "fantasma" do stereo não é o suficiente numa sala de cinema. Li em um fórum que um padrão de
calibragem da Dolby (porque a Dolby calibra as salas de cinema, muitas delas) determina que 85dB SPL (ou
seja, a medida pelo decimilímetro da pressão sonora emitida por cada altofalante, por cada canal) deve
equivaler a -20 dB Fs (que é o decibel digital, o da edição, marcado com o máximo no zero decibel). Ouvi dizer
também que o ruído rosa (pink noise) em -20 db FS seria uma referência para a calibragem (como fazer: você
coloca o ruído rosa alcançando - 20 dB no programa de edição de audio, depois com um decimilímetro SPL
você modifica o volume de saída do alto falante até que ele alcance 85 dB SPL - aí seu monitor estará com a
mesma calibragem que os altofalantes da sala de cinema, e aí você mixa o audio do seu filme com essa
monitoração. Confirmado isso, é importante calibrar os monitores de audio para se fazer a mixagem do audio,
embora seja muito importante, ou mais até, ter outros audios de referência a se ouvir nos mesmos monitores -
embora isso tenha o seu viés, pois o audio de um blueray 5.1 pode ter volumes diferentes daqueles que foram
para a sala de cinema quando o filme foi originalmente lançado para exibição em cinema.

Para mais detalhes:


- entendendo conceitos básicos da monitoração da edição de audio: http://audiodesignlabs.com/wordpress/
2008/05/acoustics-a-guide-to-online-resources/#more-15
- aqui um outro resumo, que pode ser útil: http://www.surroundassociates.com/spkrcal.html
- um aplicativo android de RTA, como dito no link acima: https://play.google.com/store/apps/details?
id=radonsoft.net.rtapro&feature=more_from_developer
- calibrando a monitaração do audio 5.1: http://audiodesignlabs.com/wordpress/2008/05/professional-
monitoring-system-calibration/
- entendendo as particularidades do canal LFE (para o subwoofer): http://audiodesignlabs.com/wordpress/
2008/07/confusion-lfe-subwoofer-bass-management/
- gráfico mostrando a relação particular de volume do canal de grave: http://audiodesignlabs.com/images/
bassmngt_2.jpg
- anexo está um guia da Dolby, mostrando inclusive posicionamento de altofalantes no estúdio de monitoração
e outros dados;

11 - Testando o DCP feito e salvo em HD.


O modo melhor e mais seguro para testar é levar em uma ou mais de uma sala de cinema digital e colocá-lo
para rodar do início ao fim.
Outra forma, anterior ou substituta a esta, é utilizar um DCP Player, que são programas que lerão o DCP no
computador. O problema principal aqui é o espaço de cor, que de monitor de computador é RGB ou sRGB,
enquanto que do DCP é XYZ. Ainda assim, muitas empresas já desenvolveram ou estão desenvolvendo DCP
Players que de alguma forma contornam esse problema, geralmente convertendo de volta o espaço de cor do
XYZ para RGB no momento da exibição, ou não o convertendo (quando, então, o DCP Player passa a ter a
finalidade de verificar se a resolução está correta, se o DCP está íntegro, se o audio está sincronizado, se a
taxa de bits está correta etc.).

Alguns DCP players:


- DCPPlayer da DigitAll: http://www.digitall.net.au/
- um dos primeiros a surgir: http://www.easydcp.com/
- um dos mais baratos: http://www.3dtv.at/Products/Player/Editions_en.aspx
- esta aqui parece uma empresa respeita em DCP Creator e que está avisando sobre o lançamento de seu
primeiro DCP Player, e que fará a correção de cor: http://www.quvis.com/filmmakers/ .

Uma última alternativa é montar a sua própria sala de cinema digital, à medida que as tecnologias forem
barateando, e isso provavelmente irá acontecer, principalmente depois que passar a primeira onda de
digitalização do cinema. A empresa Red, por exemplo, já lançou um projetor doméstico ao custo de 1500
dólares. É claro que ele é apenas o projetor, necessitando de um servidor. Não sei até que ponto este servidor
pode ser um computador doméstico rodando um software DCP player. Nesse caso o projetor apenas
funcionaria como um "monitor" com espaço de cor XYZ (um monitor propriamente dito XYZ eu procurei e não
encontrei; mas nas especificações técnicas do próprio Redray está dito que sua colorimetria é Rec 709, a
mesma da TV HD: http://www.red.com/products/redray#tech-specs ). Portanto tenho dúvida até que pontoo
RedRay é um projetor para DCP. O seu mote para marketing é a projeção 4K, e não de DCP.

para este guia eu segui principalmente este tutorial, mas o comparando com outros e
acrescentando informações:
http://treepotmedia.com/treepot-dcp-guide/

Há um livro brasileiro publicado em 2009 que resume todos os passos do cinema digital, da produção à
exibição. Está desatualizado em muita padronizações e tecnologias, claro, mas a estruturação básica da área
não mudou. Ele é gratuito em PDF: http://aplauso.imprensaoficial.com.br/edicoes/
12.0.813.627/12.0.813.627.pdf. Está anexo.

Há um grupo no Google Groups apenas sobre OpenDCP e criação de DCPs: https://groups.google.com/forum/?


fromgroups#!forum/opendcp

APENDICE 01
FORMATAÇÕES DE HD exFAT vs Fat 32 vs NTFS vs HFS vs Ext2
22/03/2010 às 06:39 | Posted in Nuvem , Mac , recomendação , sistemas de harmonia , janelas | 1 Comment
http://anoneh.wordpress.com/2010/03/22/fat-32-vs-ntfs-vs-hfs-vs-ext/
Vamos supor que usa Mac HFS, Linux usa Ext e Windows usa FAT32 e NTFS. Em termos de compatibilidade,
FAT32 está em primeiro lugar. É por isso que, a maioria (se não todos) pen drive USB, cartões CF, etc, são pré-
formatado em FAT32, por isso é compatível com todos os sistemas operacionais.
No entanto, se você formatar o drive USB em outros formatos (que fat32), você não será capaz de vê-lo,
exceto NTFS. Se NTFS, você será capaz de vê-lo, mas você não pode modificá-lo.
Fat32 não é a melhor embora. Não é seguro. Como tal, Linux e MacOSX não pode criar permissões sobre ele e
não pode ser utilizado para executar aplicações. Por exemplo, os sites do Apache não pode ser hospedado em
um disco FAT32.
Ele tem uma limitação de tamanho de arquivo de 4 GB. No entanto, alguns softwares como VMware está
ciente dessa limitação e quebrar seus arquivos em 2GB. Você é melhor colocar suas VMs em FAT32, porque isso
permite que você execute o seu VM em Macs, Linux e PCs.Agora que é muito legal, pois permite que você
carregue seu OSs onde quer que vá.
Então, novamente, o Windows 2000 Professional e XP Professional não pode formatar um volume maior do que
32 GB de tamanho. Então, o Windows 7 saiu com exFAT .
Erm btw, nunca tente a merda partição dinâmica no XP. Windows 7 não será capaz de lê-lo.
Porque os meus pensamentos sobre HFS, leia aqui .
Inicialmente eu tentei usar EXT-2, mas percebi, ele não funciona bem com Windows e Mac, mesmo com
suporte de software. Então, o melhor é que, se você usa o Windows, em seguida, usar o NTFS, Mac HFS e, em
seguida, usar linux, EXT-4 ou qualquer outra coisa.
Mas se você absolutamente tem que cruzar o uso, a melhor opção é usar o NTFS. Como eu disse
anteriormente, Mac pode ler NTFS, mas não pode escrever. Com o software MacFuse e de terceiros (pago)
como NTFS-3G de Tuxera, você pode escrever para NTFS.

Material Exchange Format


From Wikipedia, the free encyclopedia
  (Redirected from MXF)
Jump to: navigation, search
Material Exchange Format
Filename .mxf
extension
Internet application/mxf
media type
Type code "mxf "
Type of format Container format
Container for audiovisual material, rich
metadata
Material eXchange Format (MXF) is a container format for professional digital video and audio media
defined by a set of SMPTE standards.

Contents  [hide] 
1 A brief summary of MXF
2 MXF in use
3 Tools
3.1 NLE and MXF enablers
3.2 MXF converters
4 The MXF standards
4.1 Base documents
4.2 Operational patterns
4.3 Generic containers
4.4 Metadata, dictionaries and registries
5 Availability of standards
6 See also
7 References
8 External links

A brief summary of MXF[edit]


MXF is a "container" or "wrapper" format which supports a number of different streams of coded
"essence", encoded with any of a variety of codecs, together with a metadata wrapper which describes
the material contained within the MXF file.
MXF has been designed to address a number of problems with non-professional formats. MXF has full
timecode and metadata support, and is intended as a platform-agnostic stable standard for future
professional video and audio applications.
MXF was developed to carry a subset of the Advanced Authoring Format (AAF) data model, under a
policy known as the Zero Divergence Directive (ZDD). This theoretically enables MXF/AAF workflows
between non-linear editing (NLE) systems using AAF and cameras, servers, and other devices using
MXF.

MXF in use[edit]
MXF is in the process of evolving from standard to deployment. The breadth of the standard can lead to
interoperability problems as vendors implement different parts of the standard.
MXF is fairly effective at the interchange of D10 (IMX) material, mainly because of the success of the
Sony eVTR and Sony's eVTR RDD to SMPTE. Workflows combining the eVTR, Avid NLE systems, and
broadcast servers using MXF in coordination with AAF are now possible.
Long-GOP MPEG-2 material interchange between video servers is possible, as broadcasters develop
application specifications they expect their vendors to implement.
As of Autumn 2005, there were major interoperability problems with MXF in broadcast post-production
use. The two data-recording camera systems which produced MXF at that time, Sony's XDCAM and
Panasonic's DVCPRO P2, produced mutually incompatible files due to opaque subformat options
obscured behind the MXF file extension. Without advanced tools, it was impossible to distinguish these
incompatible formats.
Additionally, many MXF systems produce split-file A/V (that is, the video and audio stored in separate
files), and use a file naming convention which relies on randomly generated filenames to link them. Not
only does this exacerbate the issue of knowing exactly what is in an MXF file without specialized tools,
but it breaks the functionality of standard desktop computer techniques which are generally used to
manipulate data on a level as fundamental as moving, copying, renaming, and deleting. Using a
randomly generated filename is uninformative to the user, but changing the name breaks the loose
database structure between files.[original research?]
Furthermore, the currently popular MXF export tools (i.e. the ones that are free or cost the least) will not
allow the user to create a stereo AES file within the MXF wrapper, nor will they allow the user to add
free-text annotation to the MXF file so created (in order, for instance, that the next user of the file be able
to interpret his or her intentions). Thus, an MXF file received & unwrapped may reveal SMPTE D10
compliant essence with eight mono AES audio components; the recipient has no way of knowing
whether these components are multiple stereo pairs, 5.1 or serve some other purpose.[citation needed]
Most of the incompatibilities were addressed and ratified in the 2009 version of the standard.[1]
Sony's XDCAM MXF is supported by Adobe After Effects, Adobe Premiere Pro, Apple Final Cut Pro via
XDCAM Transfer, Autodesk Smoke, Avid, Dalet, Harris, Omneon, Quantel, Rhozet, Sony Vegas Pro,
Sorenson Squeeze Telestream FlipFactory, GrassValley EDIUS, and Grass Valley K2.
Panasonic's P2 MXF is supported by Adobe After Effects, Adobe Premiere Pro, Apple Final Cut Pro,
Dalet, Autodesk Smoke and Avid, GrassValley EDIUS,[2] and Grass Valley K2.
Ikegami offers camcorders capable of recording in MXF wrapper using Avid DNxHD video encoding at
145 Mbit/s, as well as MPEG-2 video encoding at 50 Mbit/s 4:2:2 long-GOP and 100 Mbit/s I-frame.
In 2010 Canon released its new lineup of professional file-based camcorders. The recording format used
in these camcorders incorporates MPEG-2 video with bitrates up to 50 Mbit/s and 16-bit linear PCM
audio in what Canon has called XF codec. Canon claims that its flavor of MXF is fully supported by
major NLE systems including Adobe Premiere, Apple Final Cut Pro, Avid Media Composer, and Grass
Valley EDIUS.[3]
MXF is used as the audio and video packaging format for Digital Cinema Package (DCP). It is also used
in the STANAG specification documents.[4]
The file extension for MXF files is ".mxf". The Macintosh File Type Code registered with Apple for MXF
files is "mxf ", including a trailing space.
CinemaDNG (intended by Adobe and others to be an open file format for digital cinema files) exploits
MXF as one of its options for holding a sequence of raw video images. (The other option is to store a
sequence of DNG files in a specified directory).

Tools[edit]
NLE and MXF enablers[edit]
There are an increasing number of professional NLE's that can work with MXF files natively including
Avid Media Composer, Adobe Premiere Pro 3.1 or above, Sony Vegas, and GrassValley EDIUS or via
import operations like in Final Cut Pro using the Sony XDCAM Transfer plug-in. Latest versions of Avid
editing products store media in Avid MXF Op-Atom and import/export MXF Op1a or using
mxfSPEEDRAIL F1000 applications that supports any kind of MXF flavour. Pitivi is the first open source
video editor to support the Material Exchange Format (MXF).
MXF converters[edit]
• FFmpeg, an open source project added support for muxing and demuxing of MXF and MXF D-10
in FFmpeg 0.5, released in March 2009.[5][6]
• GStreamer is an open source Material Exchange Format (MXF) library. PiTiVi uses this tool.
• Ingex is an open-source (GPL) suite of software for the digital capture of audio and video data,
developed and heavily used by the BBC. SDI capture is supported, as well as real-time
transcoding (with MXF). Portions of the suite also act as a network file server for media files, as
well as archiving to LTO-3 data tape.[7]
The MXF standards[edit]
Base documents[edit]
• SMPTE 377M: The MXF File Format Specification (the overall master document)
• SMPTE EG41: MXF Engineering Guide (A guide explaining how to use MXF)
• SMPTE EG42: MXF Descriptive Metadata (A guide explaining how to use descriptive metadata in
MXF)
Operational patterns[edit]
• SMPTE 390M: OP-Atom (a very simple and highly constrained layout for simple MXF files)
• SMPTE 378M: OP-1a (the layout options for a minimal simple MXF file)
• SMPTE 391M: OP-1b
• SMPTE 392M: OP-2a
• SMPTE 393M: OP-2b
• SMPTE 407M: OP-3a, OP-3b
• SMPTE 408M: OP-1c, OP-2c, OP-3c
Generic containers[edit]
• SMPTE 379M: Generic Container (the way that essence is stored in MXF files)
• SMPTE 381M: GC-MPEG (how to store MPEG essence data in MXF using the Generic Container)
• SMPTE 383M: GC-DV (how to store DV essence data in MXF using the Generic Container)
• SMPTE 385M: GC-CP (how to store SDTI-CP essence data in MXF using the Generic Container)
• SMPTE 386M: GC-D10 (how to store SMPTE D10 essence data in MXF using the Generic
Container)
• SMPTE 387M: GC-D11 (how to store SMPTE D11 essence data in MXF using the Generic
Container)
• SMPTE 382M: GC-AESBWF (how to store AES/EBU and Broadcast Wave audio essence data in
MXF using the Generic Container)
• SMPTE 384M: GC-UP (how to store Uncompressed Picture essence data in MXF using the
Generic Container)
• SMPTE 388M: GC-AA (how to store A-law coded audio essence data in MXF using the Generic
Container)
• SMPTE 389M: Generic Container Reverse Play System Element
• SMPTE 394M: System Item Scheme-1 for Generic Container
• SMPTE 405M: Elements and Individual Data Items for the GC SI Scheme 1
Metadata, dictionaries and registries[edit]
• SMPTE 380M: DMS1 (a standard set of descriptive metadata to use with MXF files)
• SMPTE 436M: MXF Mappings for VBI Lines and Ancillary Data Packets
• SMPTE RP210: SMPTE Metadata Dictionary (the latest version is available here.)
• SMPTE RP224: Registry of SMPTE Universal Labels
Availability of standards[edit]
SMPTE's top standards page has information, for the ordering of CD-ROMs, which would hold formal
copy of the SMPTE standards. Judging by SMPTE's index, all of the standards, referenced above,
would be contained on those CD-ROMs, as available from SMPTE. IRT Test Center contains up-to-date
information on the status of the SMPTE documents.

See also[edit]
• AAF, Advanced Authoring Format
• BXF, Broadcast Exchange Format
• BWF, Broadcast Wave Format
• MXF Viewer, MXF ingest server and MXF converter from EVS Broadcast Equipment
References[edit]
1. Jump up
^ Pedro Ferreira (23 July 2010). "MXF - a progress report (2010)".
2. Jump up
^ http://www.grassvalley.com/docs/Comparison_Guides/professional/edius/
PRV-4164M-1_EDIUS_Feature_CompGuide.pdf>
3. Jump up
^ "Introducing the XF305 and XF300: Canon's New Pro Camcorders". 2010-04-09.
4. Jump up
^ "STANAG 4609 Edition 2". Retrieved 2010-08-18.
5. Jump up
^ "FFmpeg Changelog". 2009-03-03. Retrieved 2010-08-20.
6. Jump up
^ "FFmpeg". 2008-12-03. Retrieved 2010-08-20.
7. Jump up
^ "Ingex". Retrieved 2009-08-24.
External links[edit]
• MXF - a progress report EBU Technical Review, 2010 Q3
• MXF— a technical overview EBU Technical Review, 2010 Q3
• http://www.pro-mpeg.org/ Forum where MXF was initially discussed
• http://www.craystone.co.uk MXF Aware tape units from Craystone of Bolton
• http://www.opencubetech.com/pub/rubrique.php?id=13/ MXF workflow enabler for professionals
• http://www.mog-solutions.com/ MXF solutions for professionals
• http://www.amwa.tv/ Advance Media Workflow Association
• http://mxf.info/ MXF Implementation
• http://www.irt.de/mxf/ MXF Test Center
• http://www.freemxf.org/ A multi-platform open source C++ library for reading and writing MXF files
• RFC 4539 (MIME type registration)
• US Library of Congress Digital Preservation Program: MXF Format Description Properties
• The Ingex Project
• MXF Structure
• http://www.edupdf.org/4316/material-exchange-format/ Material Exchange Format: The Society of
Motion Picture and Television Engineers

XYZ COLOR SPACE

CIE 1931 color space


From Wikipedia, the free encyclopedia

The CIE XYZ color space was derived from a series of experiments done in the late 1920s by William
David Wright[3] and John Guild.[4] Their experimental results were combined into the specification of the
CIE RGB color space, from which the CIE XYZ color space was derived.

Tristimulus values[edit]

The normalized spectral sensitivity of human cone cells of short-, middle- and long-wavelength types
The human eye has three kinds of cone cells, which sense light, with spectral sensitivity peaks in short
(S, 420–440 nm), middle (M, 530–540 nm), and long (L, 560–580 nm) wavelengths. These cone cells
underlie human color perception under medium- and high-brightness conditions (in very dim light, color
vision diminishes, and the low-brightness, monochromatic "night-vision" receptors, called rod cells, take
over). Thus, three parameters, corresponding to levels of stimulus of the three types of cone cells, can in
principle describe any color sensation. Weighting a total light power spectrum by the individual spectral
sensitivities of the three types of cone cells gives three effective stimulus values; these three values
make up a tristimulus specification of the objective color of the light spectrum. The three parameters,
noted S, M, and L, can be indicated using a 3-dimension space, called LMS color space, which is one of
many color spaces which have been devised to help quantify human color vision.
A color space maps a range of physically produced colors (from mixed light, pigments, etc.) to an
objective description of color sensations registered in the eye, typically in terms of tristimulus values, but
not usually in the LMS space defined by the cone spectral sensitivities. The tristimulus values
associated with a color space can be conceptualized as amounts of three primary colors in a tri-
chromatic additive color model. In some color spaces, including LMS and XYZ spaces, the primary
colors used are not real colors, in the sense that they cannot be generated with any light spectrum.
The CIE XYZ color space encompasses all color sensations that an average person can experience. It
serves as a standard reference against which many other color spaces are defined. A set of color-
matching functions, like the spectral sensitivity curves of the LMS space but not restricted to be
nonnegative sensitivities, associates physically produced light spectra with specific tristimulus values.
Consider two light sources made up of different mixtures of various wavelengths. Such light sources
may appear to be the same color; this effect is called metamerism. Such light sources have the same
apparent color to an observer when they produce the same tristimulus values, no matter what are the
spectral power distributions of the sources.
Most wavelengths will not stimulate only one type of cone cell, because the spectral sensitivity curves of
the three types of cone cells overlap. Certain tristimulus values are thus physically impossible (for
instance LMS tristimulus values that are non-zero for one component, and zeros for the others). And
LMS tristimulus values for pure spectral colors would, in any normal trichromatic additive color space
(e.g. RGB color spaces), imply negative values for at least one of the three primaries, since the
chromaticity would be outside the color triangle defined by the primary colors. To avoid these negative
RGB values, and to have one component that describes the perceived brightness, "imaginary" primary
colors and corresponding color-matching functions have been formulated. The resulting tristimulus
values are defined by the CIE 1931 color space, in which they are denoted X, Y, and Z.[5]

Meaning of X, Y, and Z[edit]

A comparison between a typical normalised M cone's spectral sensitivity and the CIE 1931 luminosity function for a
standard observer in photopic vision
When judging the relative luminance (brightness) of different colors in well-lit situations, humans tend to
perceive light within the green parts of the spectrum as brighter than red or blue light of equal power.
The luminosity function that describes the perceived brightnesses of different wavelengths is thus
roughly analogous to the spectral sensitivity of M cones.
The CIE model capitalises on this fact by defining Y as luminance. Z is quasi-equal to blue stimulation,
or the S cone response, and X is a mix (a linear combination) of cone response curves chosen to be
nonnegative. The XYZ tristimulus values are thus analogous to, but not equal to, the LMS cone
responses of the human eye. Defining Y as luminance has the useful result that for any given Y value,
the XZ plane will contain all possible chromaticities at that luminance.

CIE standard observer[edit]


Due to the distribution of cones in the eye, the tristimulus values depend on the observer's field of view.
To eliminate this variable, the CIE defined a color-mapping function called the standard (colorimetric)
observer, to represent an average human's chromatic response within a 2° arc inside the fovea. This
angle was chosen owing to the belief that the color-sensitive cones resided within a 2° arc of the fovea.
Thus the CIE 1931 Standard Observer function is also known as the CIE 1931 2° Standard Observer. A
more modern but less-used alternative is the CIE 1964 10° Standard Observer, which is derived from
the work of Stiles and Burch,[6] and Speranskaya.[7]
For the 10° experiments, the observers were instructed to ignore the central 2° spot. The 1964
Supplementary Standard Observer function is recommended when dealing with more than about a 4°
field of view. Both standard observer functions are discretized at 5 nm wavelength intervals from 380 nm
to 780 nm and distributed by the CIE.[8] The standard observer is characterized by three color matching
functions.
The derivation of the CIE standard observer from color matching experiments is given below, after the
description of the CIE RGB space.
Color matching functions[edit]
The CIE standard observer color matching functions
The CIE's color matching functions , and are the numerical description of the
chromatic response of the observer (described above). They can be thought of as the spectral sensitivity
curves of three linear light detectors yielding the CIE tristimulus values X, Y and Z. Collectively, these
three functions are known as the CIE standard observer.[9]

The tristimulus values for a color with a spectral power distribution are given in terms of the
standard observer by:

where is the wavelength of the equivalent monochromatic light (measured in nanometers).


Other observers, such as for the CIE RGB space or other RGB color spaces, are defined by other sets
of three color-matching functions, and lead to tristimulus values in those other spaces.

The values of X, Y, and Z are bounded if the intensity spectrum is bounded.

CIE xy chromaticity diagram and the CIE xyY color space[edit]

The CIE 1931 color space chromaticity diagram. The outer curved boundary is the spectral (or monochromatic) locus,
with wavelengths shown in nanometers. Note that the colors your screen displays in this image are specified using sRGB,
so the colors outside the sRGB gamut are not displayed properly. Depending on the color space and calibration of your
display device, the sRGB colors may not be displayed properly either. This diagram displays the maximally saturated
bright colors that can be produced by a computer monitor or television set.
The CIE 1931 color space chromaticity diagram rendered in terms of the colors of lower saturation and value than those
displayed in the diagram above that can be produced by pigments, such as those used in printing. The color names are
from the Munsell color system.
Since the human eye has three types of color sensors that respond to different ranges of wavelengths, a
full plot of all visible colors is a three-dimensional figure. However, the concept of color can be divided
into two parts: brightness and chromaticity. For example, the color white is a bright color, while the color
grey is considered to be a less bright version of that same white. In other words, the chromaticity of
white and grey are the same while their brightness differs.
The CIE XYZ color space was deliberately designed so that the Y parameter was a measure of the
brightness or luminance of a color. The chromaticity of a color was then specified by the two derived
parameters x and y, two of the three normalized values which are functions of all three tristimulus values
X, Y, and Z:

The derived color space specified by x, y, and Y is known as the CIE xyY color space and is widely used
to specify colors in practice.
The X and Z tristimulus values can be calculated back from the chromaticity values x and y and the Y
tristimulus value:

The figure on the right shows the related chromaticity diagram. The outer curved boundary is the
spectral locus, with wavelengths shown in nanometers. Note that the chromaticity diagram is a tool to
specify how the human eye will experience light with a given spectrum. It cannot specify colors of
objects (or printing inks), since the chromaticity observed while looking at an object depends on the light
source as well.
Mathematically, x and y are projective coordinates and the colors of the chromaticity diagram occupy a
region of the real projective plane.
The chromaticity diagram illustrates a number of interesting properties of the CIE XYZ color space:
• The diagram represents all of the chromaticities visible to the average person. These are shown in
color and this region is called the gamut of human vision. The gamut of all visible chromaticities on
the CIE plot is the tongue-shaped or horseshoe-shaped figure shown in color. The curved edge of
the gamut is called the spectral locus and corresponds to monochromatic light (each point
representing a pure hue of a single wavelength), with wavelengths listed in nanometers. The
straight edge on the lower part of the gamut is called the line of purples. These colors, although
they are on the border of the gamut, have no counterpart in monochromatic light. Less saturated
colors appear in the interior of the figure with white at the center.
• It is seen that all visible chromaticities correspond to non-negative values of x, y, and z (and
therefore to non-negative values of X, Y, and Z).
• If one chooses any two points of color on the chromaticity diagram, then all the colors that lie in a
straight line between the two points can be formed by mixing these two colors. It follows that the
gamut of colors must be convex in shape. All colors that can be formed by mixing three sources
are found inside the triangle formed by the source points on the chromaticity diagram (and so on
for multiple sources).
• An equal mixture of two equally bright colors will not generally lie on the midpoint of that line
segment. In more general terms, a distance on the xy chromaticity diagram does not correspond to
the degree of difference between two colors. In the early 1940s, David MacAdam studied the
nature of visual sensitivity to color differences, and summarized his results in the concept of a
MacAdam ellipse. Based on the work of MacAdam, the CIE 1960, CIE 1964, and CIE 1976 color
spaces were developed, with the goal of achieving perceptual uniformity (have an equal distance
in the color space correspond to equal differences in color). Although they were a distinct
improvement over the CIE 1931 system, they were not completely free of distortion.
• It can be seen that, given three real sources, these sources cannot cover the gamut of human
vision. Geometrically stated, there are no three points within the gamut that form a triangle that
includes the entire gamut; or more simply, the gamut of human vision is not a triangle.
• Light with a flat power spectrum in terms of wavelength (equal power in every 1 nm interval)
corresponds to the point (x,y) = (1/3,1/3).
Definition of the CIE XYZ color space[edit]
CIE RGB color space[edit]
The CIE RGB color space is one of many RGB color spaces, distinguished by a particular set of
monochromatic (single-wavelength) primary colors.
In the 1920s, W. David Wright[3] and John Guild[4] independently conducted a series of experiments on
human sight which laid the foundation for the specification of the CIE XYZ color space.

Gamut of the CIE RGB primaries and location of primaries on the CIE 1931 xy chromaticity diagram
The experiments were conducted by using a circular split screen (a bipartite field) 2 degrees in diameter,
which is the angular size of the human fovea. On one side of the field a test color was projected and on
the other side, an observer-adjustable color was projected. The adjustable color was a mixture of three
primary colors, each with fixed chromaticity, but with adjustable brightness.
The observer would alter the brightness of each of the three primary beams until a match to the test
color was observed. Not all test colors could be matched using this technique. When this was the case,
a variable amount of one of the primaries could be added to the test color, and a match with the
remaining two primaries was carried out with the variable color spot. For these cases, the amount of the
primary added to the test color was considered to be a negative value. In this way, the entire range of
human color perception could be covered. When the test colors were monochromatic, a plot could be
made of the amount of each primary used as a function of the wavelength of the test color. These three
functions are called the color matching functions for that particular experiment.

The CIE 1931 RGB Color matching functions. The color matching functions are the amounts of primaries needed to
match the monochromatic test primary at the wavelength shown on the horizontal scale.
Although Wright and Guild's experiments were carried out using various primaries at various intensities,
and although they used a number of different observers, all of their results were summarized by the
standardized CIE RGB color matching functions , , and , obtained using three
monochromatic primaries at standardized wavelengths of 700 nm (red), 546.1 nm (green) and 435.8 nm
(blue). The color matching functions are the amounts of primaries needed to match the monochromatic
test primary. These functions are shown in the plot on the right (CIE 1931). Note that and
are zero at 435.8, and are zero at 546.1 and and are zero at 700 nm, since in
these cases the test color is one of the primaries. The primaries with wavelengths 546.1 nm and
435.8 nm were chosen because they are easily reproducible monochromatic lines of a mercury vapor
discharge. The 700 nm wavelength, which in 1931 was difficult to reproduce as a monochromatic beam,
was chosen because the eye's perception of color is rather unchanging at this wavelength, and
therefore small errors in wavelength of this primary would have little effect on the results.
The color matching functions and primaries were settled upon by a CIE special commission after
considerable deliberation.[10] The cut-offs at the short- and long-wavelength side of the diagram are
chosen somewhat arbitrarily; the human eye can actually see light with wavelengths up to about
810 nm, but with a sensitivity that is many thousand times lower than for green light. These color
matching functions define what is known as the "1931 CIE standard observer". Note that rather than
specify the brightness of each primary, the curves are normalized to have constant area beneath them.
This area is fixed to a particular value by specifying that

The resulting normalized color matching functions are then scaled in the r:g:b ratio of 1:4.5907:0.0601
for source luminance and 72.0962:1.3791:1 for source radiant power to reproduce the true color
matching functions. By proposing that the primaries be standardized, the CIE established an
international system of objective color notation.
Given these scaled color matching functions, the RGB tristimulus values for a color with a spectral
power distribution would then be given by:
These are all inner products and can be thought of as a projection of an infinite-dimensional spectrum to
a three-dimensional color. (See also: Hilbert space)
Grassmann's law[edit]
One might ask: "Why is it possible that Wright and Guild's results can be summarized using different
primaries and different intensities from those actually used?" One might also ask: "What about the case
when the test colors being matched are not monochromatic?" The answer to both of these questions lies
in the (near) linearity of human color perception. This linearity is expressed in Grassmann's law.
The CIE RGB space can be used to define chromaticity in the usual way: The chromaticity coordinates
are r and g where:

Construction of the CIE XYZ color space from the Wright–Guild data[edit]
Having developed an RGB model of human vision using the CIE RGB matching functions, the members
of the special commission wished to develop another color space that would relate to the CIE RGB color
space. It was assumed that Grassmann's law held, and the new space would be related to the CIE RGB
space by a linear transformation. The new space would be defined in terms of three new color matching
functions , , and as described above. The new color space would be chosen to have
the following desirable properties:

Diagram in CIE rg chromaticity space showing the construction of the triangle specifying the CIE XYZ color space. The
triangle Cb-Cg-Cr is just the xy=(0,0),(0,1),(1,0) triangle in CIE xy chromaticity space. The line connecting Cb and Cr is the
alychne. Notice that the spectral locus passes through rg=(0,0) at 435.8 nm, through rg=(0,1) at 546.1 nm and through
rg=(1,0) at 700 nm. Also, the equal energy point (E) is at rg=xy=(1/3,1/3).
1. The new color matching functions were to be everywhere greater than or equal to zero. In 1931,
computations were done by hand or slide rule, and the specification of positive values was a useful
computational simplification.
2. The color matching function would be exactly equal to the photopic luminous efficiency
function V(λ) for the "CIE standard photopic observer".[11] The luminance function describes the
variation of perceived brightness with wavelength. The fact that the luminance function could be
constructed by a linear combination of the RGB color matching functions was not guaranteed by
any means but might be expected to be nearly true due to the near-linear nature of human sight.
Again, the main reason for this requirement was computational simplification.
3. For the constant energy white point, it was required that x = y = z = 1/3.
4. By virtue of the definition of chromaticity and the requirement of positive values of x and y, it can
be seen that the gamut of all colors will lie inside the triangle [1,0], [0,0], [0,1]. It was required that
the gamut fill this space practically completely.
5. It was found that the color matching function could be set to zero above 650 nm while
remaining within the bounds of experimental error. For computational simplicity, it was specified
that this would be so.
In geometrical terms, choosing the new color space amounts to choosing a new triangle in rg
chromaticity space. In the figure above-right, the rg chromaticity coordinates are shown on the two axes
in black, along with the gamut of the 1931 standard observer. Shown in red are the CIE xy chromaticity
axes which were determined by the above requirements. The requirement that the XYZ coordinates be
non-negative means that the triangle formed by Cr, Cg, Cb must encompass the entire gamut of the

standard observer. The line connecting Cr and Cb is fixed by the requirement that the function be
equal to the luminance function. This line is the line of zero luminance, and is called the alychne. The
requirement that the function be zero above 650 nm means that the line connecting Cg and Cr
must be tangent to the gamut in the region of Kr. This defines the location of point Cr. The requirement
that the equal energy point be defined by x = y = 1/3 puts a restriction on the line joining Cb and Cg, and
finally, the requirement that the gamut fill the space puts a second restriction on this line to be very close
to the gamut in the green region, which specifies the location of Cg and Cb. The above described
transformation is a linear transformation from the CIE RGB space to XYZ space. The standardized
transformation settled upon by the CIE special commission was as follows:
The numbers in the conversion matrix below are exact, with the number of digits specified in CIE
standards.[10]

While the above matrix is exactly specified in standards, going the other direction uses an inverse matrix
that is not exactly specified, but is approximately:

The integrals of the XYZ color matching functions must all be equal by requirement 3 above, and this is
set by the integral of the photopic luminous efficiency function by requirement 2 above. The tabulated
sensitivity curves have a certain amount of arbitrariness in them. The shapes of the individual X, Y and Z
sensitivity curves can be measured with a reasonable accuracy. However, the overall luminosity curve
(which in fact is a weighted sum of these three curves) is subjective, since it involves asking a test
person whether two light sources have the same brightness, even if they are in completely different
colors. Along the same lines, the relative magnitudes of the X, Y, and Z curves are arbitrary.
Furthermore, one could define a valid color space with an X sensitivity curve that has twice the
amplitude. This new color space would have a different shape. The sensitivity curves in the CIE 1931
and 1964 XYZ color spaces are scaled to have equal areas under the curves.

See also[edit]
• Trichromacy
• Imaginary color
• Lab color space
• Standard illuminant, the definition of white point used by CIE and commonly shown in color space
diagrams as E, D50 or D65
References[edit]
1. Jump up
^ CIE (1932). Commission internationale de l'Eclairage proceedings, 1931. Cambridge: Cambridge
University Press.
2. Jump up
^ Smith, Thomas; Guild, John (1931–32). "The C.I.E. colorimetric standards and their use". Transactions
of the Optical Society 33 (3): 73–134. doi:10.1088/1475-4878/33/3/301.
3. ^ Jump up to:
a b Wright, William David (1928). "A re-determination of the trichromatic coefficients of the spectral
colours". Transactions of the Optical Society 30 (4): 141–164. doi:10.1088/1475-4878/30/4/301.
4. ^ Jump up to:
a b Guild, J. (1932). "The colorimetric properties of the spectrum". Philosophical Transactions of the Royal
Society of London. Series A, Containing Papers of a Mathematical or Physical Character 230: 149–187.
doi:10.1098/rsta.1932.0005. JSTOR 91229.
5. Jump up
^ Hunt, R. W. (1998). Measuring Colour (3rd ed.). England: Fountain Press. ISBN 0-86343-387-1.. See
pgs. 39–46 for the basis in human eye physiology of three-component color models, and 54–57 for
chromaticity coordinates.
6. Jump up
^ Stiles, W. S.; Birch, J. M. (1959). "N.P.L. Colour-matching Investigation: Final Report (1958)". Optica
Acta 6 (1): 1–26. doi:10.1080/713826267.
7. Jump up
^ Speranskaya, N. I. (1959). "Determination of spectrum color co-ordinates for twenty seven normal
observers". Optics and Spectroscopy 7: 424–428.
8. Jump up
^ "CIE Free Documents for Download".
9. Jump up
^ Harris, A. C.; Weatherall, I. L. (September 1990). "Objective evaluation of colour variation in the sand-
burrowing beetle Chaerodes trachyscelides White (Coleoptera: Tenebrionidae) by instrumental
determination of CIE LAB values". Journal of the Royal Society of New Zealand (The Royal Society of
New Zealand) 20 (3): 253–259. doi:10.1080/03036758.1990.10416819.
10. ^ Jump up to:
a b Fairman, H. S.; Brill, M. H.; Hemmendinger, H. (February 1997). "How the CIE 1931 Color-Matching
Functions Were Derived from the Wright–Guild Data". Color Research and Application 22 (1): 11–23. doi:
10.1002/(SICI)1520-6378(199702)22:1<11::AID-COL4>3.0.CO;2-7. and Fairman, H. S.; Brill, M. H.;
Hemmendinger, H. (August 1998). "Erratum: How the CIE 1931 Color-Matching Functions Were Derived
from the Wright–Guild Data". Color Research and Application 23 (4): 259–259. doi:10.1002/
(SICI)1520-6378(199808)23:4<259::AID-COL18>3.0.CO;2-7.
11. Jump up
^ CIE (1926). Commission internationale de l'Eclairage proceedings, 1924. Cambridge: Cambridge
University Press. Note that the 1924 luminous efficiency function seriously underestimates sensitivity at
wavelengths below 460 nm, and has been supplemented with newer and more accurate luminosity
curves; see Luminosity function#Improvements to the standard.
Further reading[edit]
• Broadbent, Arthur D. (August 2004). "A critical review of the development of the CIE1931 RGB
color-matching functions". Color Research & Applications 29 (4): 267–272. doi:10.1002/col.20020.
"This article describes the development of the CIE1931 chromaticity coordinates and color-
matching functions starting from the initial experimental data of W. D. Wright and J. Guild.
Sufficient information is given to allow the reader to reproduce and verify the results obtained at
each stage of the calculations and to analyze critically the procedures used. Unfortunately, some
of the information required for the coordinate transformations was never published and the
appended tables provide likely versions of that missing data."
• Trezona, Pat W. (2001). "Derivation of the 1964 CIE 10° XYZ Colour-Matching Functions and
Their Applicability in Photometry". Color Research and Application 26 (1): 67–75. doi:
10.1002/1520-6378(200102)26:1<67::AID-COL7>3.0.CO;2-4.
• Wright, William David (2007). "Golden Jubilee of Colour in the CIE—The Historical and
Experimental Background to the 1931 CIE System of Colorimetry". In Schanda, János.
Colorimetry. Wiley Interscience. pp. 9–24. doi:10.1002/9780470175637.ch2.
ISBN 978-0-470-04904-4. (originally published by the Society of Dyers and Colourists, Bradford,
1981.)
External links[edit]
• Introduction to Colour Science, William Andrew Steer.
• efg's Color Chromaticity Diagrams Lab Report and Delphi source
• CIE Color Space, Gernot Hoffman
• Annotated downloadable data tables, Andrew Stockman and Lindsay T. Sharpe.
• Calculation from the original experimental data of the CIE 1931 RGB standard observer spectral
chromaticity co-ordinates and color matching functions
• Colorimetric data useful for calculation, in various file formats
• COLORLAB MATLAB toolbox for color science computation and accurate color reproduction. It
includes CIE standard tristimulus colorimetry and transformations to a number of non-linear color
appearance models (CIE Lab, CIE CAM, etc.).
• Precise Color Communication Konica Minolta Sensing

Вам также может понравиться