Alguns podem não acreditar, mas para muitos uma das características mais importantes em um smartphone é a câmera. Não importa se a pessoa gosta de tirar fotos de paisagens, comidas, pessoas ou apenas selfies para poder escolher o aparelho correto, é essencial entender bem esse assunto para não errar na hora da matéria, vamos esclarecer algumas dúvidas a respeito das especificações técnicas de câmera de celular que todos deveriam conhecer. Vamos abordar assuntos como megapixel, abertura, ISO, velocidade do obturador, sensor tamanho e tipo, estabilização de imagem, HDR, siglas HD, Full HD e 4K, formato RAW, lentes e foco. Você conhece mais algum termo que gostaria que explicássemos? Diz aí no campo dos comentários!MegapixelsEssa é a especificação mais conhecida e mal interpretada entre todos os aspectos técnicos de uma câmera. O número utilizado para representar os megapixels reflete a quantidade de pixels que a imagem que foi capturada vai megapixel é igual a um milhão de pixels. Portanto, 20 megapixels é o mesmo que 20 milhões de pixels. De um modo geral, quanto mais megapixels, melhor tende a ser o resultado final. Assim, é possível dar zoom ou recortar uma imagem sem comprometer muito a qualidade da é perfeitamente possível ter uma foto melhor de uma câmera de 12 megapixels do que uma produzida por uma câmera de 20 megapixels. Isso acontece porque há outros aspectos que veremos a seguir que determinam a qualidade final da abertura faz referência à quantidade de luz que a lente deixa entrar. Essa medida é expressada pela letra F e, quanto menor o seu valor, mais luz entra. A abertura também faz variar a profundidade de campo, possibilitando desfocar o fundo da imagem. Nesse caso, quanto menor a abertura, medida faz referência a quão sensível uma câmera é à luz disponível. Quando maior o número ISO, maior é a sensibilidade. Porém, um ISO alto resulta em ruído nas fotos, o que produz aquele efeito granulado. No geral, um ISO baixo é o ideal, mas isso depende muito da quantidade de luz disponível na do obturadorA velocidade do obturador define quanto tempo a câmera mantém a lente aberta para registrar uma foto. Quanto maior o tempo que o obturador se mantém aberto, maior é a quantidade de luz que entra. Porém, isso também torna a câmera mais vulnerável a tremidas e action cams, nas quais a velocidade de captura é importante, uma velocidade do obturador alta é o ideal. Em fotos noturnas de objetos parados, uma exposição mais longa vai produzir resultados do sensorO sensor de uma câmera é o componente responsável por capturar a imagem. Quanto maior o sensor, melhor tende a ser a foto capturada. É por causa dele que muitos celulares têm a câmera é importante saber que há dois tipos de sensores CCD e CMOS. Smartphones mais modernos usam sensores CMOS, que são mais caros e complexos. Além disso, os sensores podem ser fabricados por empresas diferentes, como Samsung, Sony ou de imagemA estabilização de imagem pode ser óptica ou eletrônica. A óptica, mais avançada e cara, coloca o sensor dentro de um conjunto que compensa os movimentos do celular. A eletrônica tenta corrigir a imagem com ajustes na velocidade do obturador. Portanto, um smartphone com estabilização óptica de imagem é melhor do que um presença do HDR, ou grande alcance dinâmico, ajuda a registrar imagens com intensidades de luz diferentes. Quando ativado, a câmera captura imagens com exposições diferentes da mesma cena e combina as fotos para criar a imagem certa. Esse recurso está presente em muitos celulares, especialmente os mais modernos, podendo ter nomes Full HD e 4KHD, Full HD e 4K são medidas de resolução, mas são usadas para descrever as capacidades de gravar vídeos. Assim como no caso dos megapixels, uma das vantagens em altas resoluções é a capacidade de dar zoom sem perder muita resolução. Porém, o ponto negativo é o espaço ocupado pelos arquivos de vídeo, que aumenta de acordo com a = 1280x720 pixelsFull HD =1920x1080 pixelsUltra HD 4K = 3840x2160 pixelsFormato RAWA maioria dos celulares salva as imagens em JPEG, mas alguns já suportam o formato RAW. Esse formato registra tudo o que o sensor vê, sendo ideal para fotógrafos profissionais. Imagens JPEG são otimizadas e comprimidas para ocupar menos espaço. O RAW também consegue identificar mais níveis de brilho, mas ocupa mais de ser um aspecto pouco divulgado pelas fabricantes, é bom saber se o aparelho possui um bom conjunto de lentes. Algumas empresas já informam detalhes como a quantidade e o tipo de lente utilizada na câmera. Por isso, é bom ficar focalizar um objeto, as câmeras de celulares se apoiam em dois métodos o foco por contraste e o foco laser. A detecção de contraste geralmente é mais lenta e menos precisa. Já o foco laser é mais rápido e produz fotos com maior nitidez......Essas são as principais especificações de câmera que você deve analisar ao escolher um celular. Já conhecia todas elas? Gostaria de sugerir mais algum aspecto a ser considerado? Deixe a sua opinião no campo dos comentários!Você conhece bem todas as especificações técnicas de uma câmera de celular? Comente no Fórum do TecMundo!
Pegue um atalho Tamanho do sensor em polegadas de tubos analógicos a chips CMOS Área efetiva do sensor tamanho é documento Máscara Bayer e outras técnicas enxergando em cores Quad Bayer e Tetracell Sensor RYYB o mesmo em amarelo Software de câmera algoritmo é tudo Foco automático PDAF, 2x2 OCL e mais Atenção a tendência entre os celulares não é apenas para incluir mais sensores, mas também para adotar componentes maiores / © NextPit Tamanho do sensor em polegadas de tubos analógicos a chips CMOS Para começar, um pouco de história nas especificações das câmeras de celulares, o tamanho do sensor é sempre citado em uma medida exótica na notação 1/xyz polegada, por exemplo 1/1,72 polegada ou 1/2 polegada. Infelizmente, este tamanho não corresponde em nada ao tamanho real do sensor no celular. Vejamos a ficha técnica do IMX586 meia polegada deste sensor de 1/2 polegada corresponderia neste caso a 1,27 centímetro. Mas o tamanho real do Sony IMX586 não tem nada a ver com isso. Se multiplicarmos o tamanho dos pixels de 0,8 mícron pela resolução horizontal de pontos, obtemos apenas 6,4 milímetros, que é apenas metade. Se primeiro usarmos a horizontal e depois o bom e velho Pitágoras para a diagonal, obtemos 8,0 milímetros. Isso não é nem de perto o bastante. E aqui está o ponto crucial as especificações em polegadas foram adotadas há cerca de meio século, quando as câmeras de vídeo ainda dependiam de tubos de vácuo como conversores de imagem. Os departamentos de marketing mantêm a relação aproximada entre a área sensível à luz e diâmetro do tubo até hoje. E por isso um chip CMOS com uma diagonal de 0,31 polegadas é hoje em dia chamado de sensor de 1/2 polegada. "Na minha época, meu amigo" as designações em polegadas dos sensores de imagem datam de tempos como estes. Na foto Ionoscópio inventor Vladimir K. Zworykin ca. 1954 com alguns tubos conversores de imagem / © Domínio Público Se você quiser saber o tamanho real de um sensor de imagem, dê uma olhada na folha de dados do fabricante ou na página detalhada da Wikipedia sobre os tamanhos dos sensores de imagem. Ou você pode fazer como no exemplo acima e multiplicar o tamanho do pixel pela resolução horizontal ou vertical. Área do sensor quando tamanho é documento Por que o tamanho do sensor é tão importante? Imagine a luz caindo através da lente sobre o sensor como a chuva caindo do céu. Agora pense que você tem um décimo de segundo para estimar a quantidade de água que está caindo atualmente. Isto será relativamente difícil com um copo de shot, pois algumas gotas podem cair no copo em um décimo de segundo se chover muito, ou nenhuma gota se chover pouco ou se tiver um pouco de azar. Em qualquer caso, sua estimativa será muito imprecisa. Agora imagine que você tem uma piscina para a mesma tarefa. Com ela, você pode facilmente pegar algumas centenas ou milhares de gotas da chuva e pode estimar com precisão a quantidade de chuva com base na área de superfície. No caso dos sensores de imagem e a luz acontece o mesmo que com um copo de shot ou uma piscina, e a medição da chuva. Quanto mais escuro, menos fótons os conversores de luz capturam — e menos preciso é o resultado da medição. Essas imprecisões se manifestam posteriormente em erros como ruído de imagem, cores imprecisas, etc. Este gráfico mostra uma comparação de alguns dos formatos de sensores atualmente utilizados em celulares / © NextPit Tudo bem que em termos absolutos a diferença entre sensores de imagem nos celulares não é tão grande quanto a diferença entre um copo e uma piscina. Mas o já mencionado Sony IMX586 na câmera telefoto do Samsung Galaxy S20 Ultra é cerca de quatro vezes maior em área do que o sensor de 1/4,4 polegada na câmera telefoto do Xiaomi Mi Note 10. A sede por números cada vez maiores nos materiais de divulgação dos celulares é praticamente o mesmo que usar como velocidade máxima de um carro o valor irreal alcançado em queda livre / © Volkswagen, Montagem NextPit Matriz Bayer e outras técnicas para enxergar colorido Voltando para nossa comparação acima com a água da chuva, se colocássemos vezes baldes em um campo aberto, poderíamos determinar a quantidade de chuva caindo com uma "resolução" de 12 megapixels e registrar algum tipo de informação da saturação de água da nuvem passando por cima da região. Entretanto, se um sensor de imagem com 12 megapixels captasse a quantidade de luz com suas por armadilhas de fótons, a foto resultante seria preto e branco — porque medimos apenas a quantidade absoluta de luz. Não podemos distinguir as cores nesse exemplo, assim como um balde não pode distinguir o tamanho das gotas de chuva que caem sobre ele. Então como transformar a foto em preto-e-branco em uma foto colorida? O truque é aplicar uma máscara colorida sobre o sensor, a chamada matriz Bayer ou filtro Bayer. Isto garante que somente a luz vermelha, azul ou verde atinja os pixels. Com a clássica matriz Bayer com layout RGGB, um sensor de 12 megapixels tem então seis milhões de pixels verdes e três milhões de pixels vermelhos e azuis cada um. O olho humano pode distinguir melhor os tons verdes. Assim, os sensores de imagem das câmeras também são melhor posicionados aqui e têm o dobro de pixels verdes do que os pixels azuis ou vermelhos. À direita está uma matriz RYB - aqui os pixels verdes foram trocados por amarelos / © NextPit A fim de gerar uma imagem com doze milhões de pixels RGB a partir destes dados, o processamento da imagem normalmente começa com o desmosaico dos pixels verdes ou interpolação. Usando os pixels vermelhos e azuis ao redor, o algoritmo calcula então — de forma muito simplificada — um valor RGB para cada pixel. Na prática, os algoritmos de interpolação são muito mais inteligentes, por exemplo, para evitar "franjas" coloridas nas bordas dos objetos. O mesmo processamento é aplicado com os pixels vermelhos e azuis, e uma foto colorida vai então para a memória interna do seu celular. Quad Bayer e Tetracell Sejam 48, 64 ou 108 megapixels a maioria dos atuais sensores de altíssima resolução em celulares tem uma coisa em comum enquanto o sensor propriamente dito tem 108 milhões de "baldes de água" ou sensores de luz, o filtro Bayer acima dele tem uma resolução quatro vezes menor. Portanto, há quatro pixels sob cada filtro de cor. Sejam sensores Tetracell da Samsung ou Quad Bayer de outras fornecedoras em cada vez mais sensores de imagem, quatro pixels compartilham um filtro de cor / © NextPit É claro, isso é tudo o que os departamentos de marketing mais gostam para usar nas fichas técnicas. Um sensor de 48 megapixels! 108 megapixels! Três sensores de 64 MP! E quando está escuro, os minúsculos pixels podem ser combinados em superpixels maiores para oferecer fotos noturnas melhores. Paradoxalmente, porém, muitos celulares mais baratos não oferecem nem mesmo a opção de tirar fotos com 48 megapixels — ou até mesmo oferecem uma qualidade de imagem inferior nesse modo em comparação com o modo de 12 megapixels. Em todos os casos que conheço, os celulares também são tão mais lentos ao tirar fotos com resolução máxima, que o aumento moderado na qualidade não vale a pena — especialmente porque 12, 16 ou 27 megapixels são suficientes para o uso diário e não enchem a memória tão rapidamente. A mensagem de marketing de dezenas de megapixels pode ser ignorada. Mas na prática, os sensores de alta resolução costumam também ser maiores — e a qualidade da imagem se beneficia notavelmente disso. O sensor SuperSpectrum da Huawei trocando o verde e amarelo Há ainda algumas técnicas inspiradas na matriz Bayer. A Huawei, como exemplo mais destacado, conta com a chamada matriz RYYB para alguns sensores ver gráfico acima, na qual o espectro de absorção dos pixels verdes é deslocado para o amarelo. Isto tem a vantagem — pelo menos no papel — de que mais luz é absorvida e mais fótons chegam ao sensor no escuro. Os diagramas de eficiência quântica mostram quão sensivelmente diferentes sensores reagem à luz de diferentes comprimentos de onda. No caso do sensor RYYB ou RCCB à direita, o intervalo sob a curva de absorção verde ou amarela, ou seja, a sensibilidade à luz, é significativamente maior. Por outro lado, os pixels amarelos respondem mais à "faixa de frequência vermelha", o que torna mais difícil o desmosaico / © Sociedade de Ciência e Tecnologia de Imagem Por outro lado, os comprimentos de onda medidos pelo sensor não estão mais tão uniformemente distribuídos no espectro e tão claramente separados uns dos outros como em um sensor RGGB — caso da linha verde interrompendo sua queda no espectro de onda vermelha no gráfico acima à direita. A fim de manter uma reprodução de cor precisa, aumentam as exigências sobre os algoritmos, que devem posteriormente interpolar os valores de cor RGB. É impossível prever qual abordagem produzirá as melhores fotos. Neste caso, só os testes práticos e laboratoriais que provam que uma ou outra tecnologia está correta. Leia também Teste cego de câmeras 2021 o NextPit escolhe a melhor câmera de celular! Software da câmera o algoritmo faz a música Finalmente, gostaria de dizer algumas palavras sobre os algoritmos que acabei de mencionar. Especialmente na era da fotografia computacional, o conceito de fotografia está se tornando difuso. Uma imagem formada por doze fotos individuais ainda é realmente uma fotografia no sentido original? Uma coisa é certa a influência dos algoritmos de processamento de imagem é muito maior do que um aumento discreto da área do sensor. Sim, uma diferença de duas vezes a área faz uma grande diferença. Mas um bom algoritmo também compensa muita coisa. A líder global do mercado de sensores, a Sony, é um bom exemplo disso. Embora a maioria dos sensores de imagem pelo menos tecnologicamente venha do Japão, os smartphones Xperia costumam ficar atrás da concorrência em termos de qualidade de imagem. O Japão pode fazer hardware, mas quando se trata de software, os outros estão mais avançados. Duas fotos do Samsung Galaxy S10. À esquerda, foi usada a câmera do Google, à direita, o aplicativo da própria Samsung. O modo HDR do Google é superior ao da Samsung. Não é de admirar que muitas pessoas baixem a câmera do Google / © NextPit E aqui vai outra dica sobre a sensibilidade ISO, que também merece seu próprio artigo por favor, nunca fique impressionado com os números ISO, pois os sensores de imagem em quase todos os casos* têm uma única sensibilidade ISO nativa que é muito raramente encontrada nas fichas técnicas. Os valores ISO que o fotógrafo ou o sistema automático da câmera definem durante o clique real são mais como uma compensação — ou seja, um "controle de brilho". O "comprimento" da escala para este controle de brilho pode ser definido livremente, portanto escrever um valor como "ISO nas especificações faz tanto sentido quanto escrevê-lo na ficha técnica de um VW Golf... Bom, vamos deixar as coisas assim. * Existem na verdade alguns sensores "dual ISO" com duas sensibilidades nativas no mercado de câmeras, por exemplo o Sony IMX689 no Oppo Find X2 Pro, pelo menos é isso que o Oppo diz. Caso contrário, é mais provável que você encontre o que está procurando em câmeras profissionais como a BlackMagic PCC 6K. Autofoco PDAF, 2x2 OCL e outras técnicas Finalmente, um pequeno ponto que está diretamente relacionado ao sensor de imagem o tópico do foco automático. No passado, os celulares determinavam o foco correto usando o foco automático por contraste. Esta é uma detecção lenta e computacionalmente intensiva. A maioria dos sensores de imagem atuais usa o chamado "autofoco por comparação de fases", também conhecido como PDAF phase detect autofocus. Neste caso, são instalados pixels especiais de autofoco no sensor que são divididos em duas metades, comparam as fases da luz incidente e podem usá-los para calcular a distância até o objeto. A desvantagem desta tecnologia é que o sensor de imagem é "cego" nestes pontos — e dependendo do sensor, estes pixels cegos de foco podem afetar até três por cento da superfície do componente. O Oppo Find X2 Pro ajusta o foco incrivelmente rápido no modo de vídeo graças ao sensor OCL 2x2 / © NextPit Apenas um lembrete quanto menor a área, menos luz/água e menor a qualidade de imagem. Além disso, os algoritmos têm que retocar estas imperfeições como seu cérebro faz com o ponto cego. No entanto, há uma abordagem mais elegante que não inutiliza pixels no sensor. Neste caso, as microlentes que já estão presentes no sensor são distribuídas em vários pixels. A Sony, por exemplo, chama isso de 2x2 OCL ou 2x1 OCL, dependendo se as microlentes combinam quatro ou dois pixels. Quatro pixels sob um filtro colorido sob uma microlente a tecnologia OCL 2x2 da Sony transforma todos os pixels em sensores cruzados para foco automático / © Sony Em breve dedicaremos um artigo separado e mais detalhado ao foco automático. O que você procura em uma câmera quando compra um novo celular? E sobre quais tópicos em torno da fotografia com celulares você gostaria de ler a respeito? Aguardo com expectativa seus comentários! Mais artigos sobre câmeras de celulares Guia fotográfico para smartphone para que serve a abertura Câmera do celular sem foco? Saiba como resolver esse problema
- Есիռዙտևср аваσխс
- Վሣ ωቱοጵ