BOE apresenta a primeira tela com resolução de 16K do mundo, mas 8K mal chegou

Imagino como seria o tamanho de um vídeo de duas horas nessa resolução. Nem o SSD atual com 1 TB daria conta.

3 curtidas

Não acho problema procurar fazer ainda melhor do que nem mesmo temos, muito pelo contrário. Isso pode fazer o 8K ficar mais próximo do comum, além de, claro, outras possibilidades de produtos e equipamentos que podem ser beneficiar de altíssimas resoluções.

3 curtidas

Depende muito do codec, mas achei alguns exemplos, ~10s se tornam entre 9 e 43mb :dizzy_face:

ou seja, 4,3Mb por segundo * 7200 segundos (2h) = ~31Gb, cabe num Blu-ray, e ainda sobram 19Gb.

5 curtidas

Baseado em 4k da Netflix, cerca de 2MB por segundo e multiplicando isso por 16 (já que 16k é 16x o 4k), multiplicado por 2 horas.

2MB x 16 x 60 segundos x 60 minutos x 2 horas = 230 GB

Até que não dá tanto, e vai surgir codecs melhores com o tempo.

2 curtidas

Eu ainda tenho dificuldades em diferenciar 4k em um LG 49". Sério, não noto.
HD para full HD fica claro, mas 4k não consigo perceber diferença.

Acho que a evolução tinha que ser no HDR. Padrão de gravação. HDR numa amoled faz diferença demais.
4k - HDR - 60fps seria o mundo ideal.

4 curtidas

8K e 16K são excelentes (e maiores no futuro) pq barateiam as resoluções mais relevantes.

4 curtidas

Você não tem um olho tão treinado então, que é o caso da maioria da população mesmo.

1 curtida

Pra mim isso é só uma prova de conceito do que uma aplicação prática.
Ainda não existem sensores realmente em 16K, só 8K com lentes anamórficas. Ou a Blackmagic Ursa 12K opengate.
É legal, é um uau, mas por enquanto, só isso.

1 curtida

Pode ser, mas é claro, se comparar lado a lado dá para notar alguma diferença.

Mas se eu pego um vídeo em full HD no YouTube e mudo para 4k realmente não noto.

Mais aí você realmente não vai notar a diferença se você não estiver no equipamento certo. Se você estiver em uma TV ou monitor Full HD e colocar um vídeo 4K ele vai continuar lhe mostrando Full HD

Agora em uma TV/Monitor 4k ainda tem a questão do upscaling, com o Full HD da pra ver de boa, mas com o 4k a imagem fica melhor

1 curtida

A conta sua é com AV1 ou h265?

Na Netflix não informa o Codec que está usando, só o bitrate dele, em TV 4k eu notei ele ir até os 15 Mbps mais ou menos, a partir disso eu multipliquei.

Chuto que seja h265 pela idade da tv, já que quase nenhum dispositivo conta com av1 por enquanto. Outra coisa, são capaz de manter o mesmo bitrate e melhorar a qualidade com a melhora do Codec, já que sabemos que o 4k da Netflix é bem capado mesmo.

1 curtida

Até em monitor FHD dá pra notar por conta do downscalling ser de maior qualidade.

não sei vc, mas acho que o AV1 vai demorar, acho que vai entrar no mesmo lugar do USB-C, já tem, mas enrola o máximo para colocar

de Hardware mesmo, que eu vi que colocaram foram AMD, Intel, Media tek no Dimensity 1000, Nvidia que tem desde da 2060, Samsung no Exyons 2200 e Qualcoom no SD 8 gen 2. A Apple que poderia dar uma alavancada legal, nem se quer colocou

1 curtida

Acho que onde vai fazer a maior diferença é nós Chips das TVs e é justamente onde deve demorar mais para ser implementado.

1 curtida

Um dos grandes problemas do AV1, não é o decode por hardware, já que isso pode ser contornado por software (um pouco mais lento e com maior consumo de recursos). Mas sim o encode por hardware que só foi liberado com as séries RX 7000 e RTX 4000, além da Intel Arc.
Antes disso, só dava pra fazer por software e muito lento.

E tem a Apple, que quer insistir no HEVC, ao invés do AV1.

Ah, claro, tem o problema do suporte nas TVs, como falado acima.

faz sentido

olhando agora, as TVs da LG C2 aceita av1 a 4k 60 FPS 10 bit

já to achando que não vai demorar tanto assim não.

@xavier penso a mesma coisa, no software, imagino que vai ter limitações, principalmente nas tvs para conseguir emular, já que algumas já estão no gargalo só para funcionar

eu não sei porque a Apple está recusando a colocar, ainda mais que ela busca colocar o Mac como studio audiovisual e foi uma das que começaram com esse formato, e o AV1 foi projetado para ser o futuro do vídeo.

só que não duvido de já estar no chip e Apple colocar futuramente como inovação

1 curtida

Tem 2 problemas aí. Ela promove o Apple ProRes que é um formato de vídeo quase que sem perdas (RAW), mas é lossy, já que quem tem a patente de vídeos brutos é a RED e até o BRAW não é completamente bruto, pois ele sofre debayering no sensor antes de ser gravado (uma forma de contornarem a patente da RED).
E é muito mais necessário o Apple ProRes do que encode em AV1 (ao menos no momento).

E acredito que não seja tão simples de implementar o decode com uma atualização de firmware não, tanto que ele chegou só nas RTX 30xx.

1 curtida

o problema que a Nvidia é a Nvidia, a Quadro RTX a2000 que usa o “mesmo” chip da 3060 já tem av1 decod

só que acredito que seja trabalhoso para fazer, só que se fez o primeiro, o trabalho diminui para as subsequentes.