Imagino como seria o tamanho de um vídeo de duas horas nessa resolução. Nem o SSD atual com 1 TB daria conta.
Não acho problema procurar fazer ainda melhor do que nem mesmo temos, muito pelo contrário. Isso pode fazer o 8K ficar mais próximo do comum, além de, claro, outras possibilidades de produtos e equipamentos que podem ser beneficiar de altíssimas resoluções.
Depende muito do codec, mas achei alguns exemplos, ~10s se tornam entre 9 e 43mb
ou seja, 4,3Mb por segundo * 7200 segundos (2h) = ~31Gb, cabe num Blu-ray, e ainda sobram 19Gb.
Baseado em 4k da Netflix, cerca de 2MB por segundo e multiplicando isso por 16 (já que 16k é 16x o 4k), multiplicado por 2 horas.
2MB x 16 x 60 segundos x 60 minutos x 2 horas = 230 GB
Até que não dá tanto, e vai surgir codecs melhores com o tempo.
Eu ainda tenho dificuldades em diferenciar 4k em um LG 49". Sério, não noto.
HD para full HD fica claro, mas 4k não consigo perceber diferença.
Acho que a evolução tinha que ser no HDR. Padrão de gravação. HDR numa amoled faz diferença demais.
4k - HDR - 60fps seria o mundo ideal.
8K e 16K são excelentes (e maiores no futuro) pq barateiam as resoluções mais relevantes.
Você não tem um olho tão treinado então, que é o caso da maioria da população mesmo.
Pra mim isso é só uma prova de conceito do que uma aplicação prática.
Ainda não existem sensores realmente em 16K, só 8K com lentes anamórficas. Ou a Blackmagic Ursa 12K opengate.
É legal, é um uau, mas por enquanto, só isso.
Pode ser, mas é claro, se comparar lado a lado dá para notar alguma diferença.
Mas se eu pego um vídeo em full HD no YouTube e mudo para 4k realmente não noto.
Mais aí você realmente não vai notar a diferença se você não estiver no equipamento certo. Se você estiver em uma TV ou monitor Full HD e colocar um vídeo 4K ele vai continuar lhe mostrando Full HD
Agora em uma TV/Monitor 4k ainda tem a questão do upscaling, com o Full HD da pra ver de boa, mas com o 4k a imagem fica melhor
A conta sua é com AV1 ou h265?
Na Netflix não informa o Codec que está usando, só o bitrate dele, em TV 4k eu notei ele ir até os 15 Mbps mais ou menos, a partir disso eu multipliquei.
Chuto que seja h265 pela idade da tv, já que quase nenhum dispositivo conta com av1 por enquanto. Outra coisa, são capaz de manter o mesmo bitrate e melhorar a qualidade com a melhora do Codec, já que sabemos que o 4k da Netflix é bem capado mesmo.
Até em monitor FHD dá pra notar por conta do downscalling ser de maior qualidade.
não sei vc, mas acho que o AV1 vai demorar, acho que vai entrar no mesmo lugar do USB-C, já tem, mas enrola o máximo para colocar
de Hardware mesmo, que eu vi que colocaram foram AMD, Intel, Media tek no Dimensity 1000, Nvidia que tem desde da 2060, Samsung no Exyons 2200 e Qualcoom no SD 8 gen 2. A Apple que poderia dar uma alavancada legal, nem se quer colocou
Acho que onde vai fazer a maior diferença é nós Chips das TVs e é justamente onde deve demorar mais para ser implementado.
Um dos grandes problemas do AV1, não é o decode por hardware, já que isso pode ser contornado por software (um pouco mais lento e com maior consumo de recursos). Mas sim o encode por hardware que só foi liberado com as séries RX 7000 e RTX 4000, além da Intel Arc.
Antes disso, só dava pra fazer por software e muito lento.
E tem a Apple, que quer insistir no HEVC, ao invés do AV1.
Ah, claro, tem o problema do suporte nas TVs, como falado acima.
faz sentido
olhando agora, as TVs da LG C2 aceita av1 a 4k 60 FPS 10 bit
já to achando que não vai demorar tanto assim não.
@xavier penso a mesma coisa, no software, imagino que vai ter limitações, principalmente nas tvs para conseguir emular, já que algumas já estão no gargalo só para funcionar
eu não sei porque a Apple está recusando a colocar, ainda mais que ela busca colocar o Mac como studio audiovisual e foi uma das que começaram com esse formato, e o AV1 foi projetado para ser o futuro do vídeo.
só que não duvido de já estar no chip e Apple colocar futuramente como inovação
Tem 2 problemas aí. Ela promove o Apple ProRes que é um formato de vídeo quase que sem perdas (RAW), mas é lossy, já que quem tem a patente de vídeos brutos é a RED e até o BRAW não é completamente bruto, pois ele sofre debayering no sensor antes de ser gravado (uma forma de contornarem a patente da RED).
E é muito mais necessário o Apple ProRes do que encode em AV1 (ao menos no momento).
E acredito que não seja tão simples de implementar o decode com uma atualização de firmware não, tanto que ele chegou só nas RTX 30xx.
o problema que a Nvidia é a Nvidia, a Quadro RTX a2000 que usa o “mesmo” chip da 3060 já tem av1 decod
só que acredito que seja trabalhoso para fazer, só que se fez o primeiro, o trabalho diminui para as subsequentes.