Minha visão sobre o metaverso

Em resumo, acredito que o Metaverso da Meta vá falhar. Não vou encher linguiça na minha introdução porque é muita coisa. Eu não falo isso por desprezo a Meta falo porque eu tenho conhecimento suficiente de programação além de ter contribuído para uma conhecida API para facilitar o processamento de palavras em redes neurais.


Não há definição específica de Metaverso

As pessoas e muitas vezes a própria imprensa exageram na expectativa do metaverso e isso vai contribuir para a falha do mesmo. Isso já aconteceu e será exemplificado mais abaixo. Ao meu ver é que a Meta está mostrando imagens de uma solução empresarial para fazer videoconferências usando Realidade Virtual (como o conceito em imagem abaixo).


No lado do usuário final, as pessoas querem um mundo virtual completamente interativo. Isto incentivou muitas pessoas a criarem cursos preparatórios para marketing no metaverso (bruh). Isto ficou mais evidente depois da ultima atualização sobre o Metaverso postado por Zuckerberg:


Como pode ver, o real estado do Metaverso depois de quase 1 ano após o anúncio é um autêntico Miitopia sem sombreadores. E isto não agradou aos fãs.

O mesmo aconteceu com o jogo Pokemon Go, onde seu anúncio gerou uma grande expectativa sobre o app (não hávia especificação técnica sobre o que é Pokemon Go). O jogo durou bem em seus primeiros anos. Eu joguei, você jogou. Mas o fato é que o jogo despencou sua base de usuários. Eu mesmo não vejo mais gente jogando o jogo. Isto se deve ao software não conseguir manter a expectativa de seu anúncio após o lançamento.


Especificações de hardware para servidores

A Intel já alertou, não é possível manter um metaverso em condiçoes atuais. Isso nós já sabemos. Mas POR QUE!? Bom, isso vai depender de como a Meta irá implementar sua renderização:

No servidor:

O dispositivo do usuário irá enviar dados dos movimentos do usuário como pose dos dedos, expressão facial para o servidor (Possivelmente uma imagem para melhor trabalho com AI. Isso permite que dados de seu rosto sejam vendidos).
O servidor então irá realizar a montagem em 3D do ambiente com os personagens e então enviar o resultado em uma espécie de streaming. Neste caso em específico nem o supercomputador mais rapido do mundo irá suportar o Miitopia da Meta. (CPU e GPU da Meta em 100%)

Parcialmente no servidor

O servidor envia os elementos em 3D para uso futuro (devido a grandes combinações de elementos para criar um personagem, sua memória interna vai pro beleléu).
Então, o dispositivo do usuário faz o processamento dos movimentos previamente, para então enviar pequenas informações em um aglomerado de numeros semi-precisos por meio de uma IA (Queda drástica de performance em smartphones).
Como se já não bastasse o sofrimento, a sua máquina vai ter que montar o ambiente 3D com os elementos na tela.

Custoso, mas a dor irá se ampliar mais ainda se estivermos falando de mais de duas pessoas no mesmo ambiente. É AI QUE VEM O PULO DO GATO: Imagine 100, 200 ou até 1000 pessoas no mesmo ambiente. É disso que a Intel está falando. (RIP memória interna. 3FPS de video)


Há problemas a serem resolvidos primeiros (e muitos)!

Pense naquela videochamada que você vai fazer no Zoom em sua aula EaD. Agora pense que em sua sala há cerca de 500 pessoas, todas escutando o professor. Tente chutar o numero de pessoas com atraso no audio ou problemas de conexão. É grande!

Se no metaverso houver esse problema, é bem possível que em 200Mb (25MB) de internet não suprirão as necessidades. Principalmente em um ambiente com crianças envolvidas! E mais, problemas de conexão poderão causar uma falha na renderização de chunks. Se você não entendeu, eis aqui uma foto:

(GTA 5 durante sua renderização do mapa)

O metaverso não é nenhum GTA 5, mas acredito que isso vá acontecer. Primeiro porque esse evento acontece em jogos onde o mapa é guardado localmente. Agora imagine um lugar com várias possibilidades de mapas que vão ser enviados a você por meio da internet.

Outros problemas incluem, os sombreadores, a integração com realidade estendida e as possibilidades que podem ser feitas. Infelizmente não irei citar pois o texto está imenso!


Mas, com base nestes 3 tópicos, eu faço uma pergunta a vocês para cada uma delas:

O que é um metaverso para você e como você acha que a Meta irá vencer suas expectativas?

Como você acha que a Meta irá contornar a carga gigantesca de seus servidores?

Quais outros problemas você também encontrou e precisam ser resolvidos antes do metaverso?

Ah, leva tempo para desenvolver… mas essa desgraça do metaverso ai é infame demais… parecendo prébeta do PS1…

?

Acredito que a redenrização 3D completa no servidor não seja necessária… vide MMORPGs e MMOG em geral… o 3D deve ser redenrizado no PC da pessoa… ou em algum servidor de streaming tipo o GeForce Now.

Uma perda de tempo fenomenal. Sei lá, vendendo oleo de cobra.

Que carga? O render nem precisa ser feito nos servidores… claro que vai pesar mais que o facebook, mas não deve ter render serverside…

Principal problema é a falta de utilidade de socar um second life no óculos vr… segundo é encontrar uma utilidade útil…

1 curtida

Concordo, mas acredito que não vão chegar a um patamar de qualidade gráfica de um jogo AAA.

Naquele caso em específico eu estava indo mais pro lado da streaming. Pois é bem parecido com o que temos na GeForce Now. Mas quando falamos de metaverso, pensamos que muitas pessoas vão se conectar. Mesmo que seja uma “versão streaming” de The Sims. Eu queria apresentar este meio pois era o único meio viável que eu enxergo de um celular “padrãozinho” conseguir rodar essa coisa.

Pra mim é algo que vai flopar.

Não só o render, mas o processamento de movimentos é algo que vai pesar muito. Já vimos algo disso com o snapchat mas era só com o rosto. Aqui acredito que a inteligencia artificial vai ser muito mais complexa. Vai precisar além de reconhecer o rosto, o movimento dos dedos e o resto do corpo.

Lembro que na época que eu tinha um smartphone “bom”. Eu tive que limitar o FPS da câmera. Não sei ao certo o que aconteceu mas acho que a camera é afetada pelo funcionamento da CPU. Lembro que no primeiro teste haviam muitos borrões na tela.

Acho que um servidor pode lidar com isso, mas dá uma olhada na quantidade de tempo que se precisa para uma IA gerar uma imagem nesses WomboArts, HotPot.AI da vida…

Já vimos que o Mark não é o mais rico do mundo agora, né? 2 bilhões ralo a baixo. Se fosse um hospital, por exemplo, já teria falido.

2 curtidas

Isso é bem óbvio… acredito que eles queiram incluir o máximo de pessoa, na medida do possível. 99% da população mundial não conseguiria rodar um AAA… (mesmo assim, aqueles gráficos…)

Ai se fosse gratuito, seria uma burrada sem tamanho… geraria muito mais custos que ads iriam conseguir pagar…

Um celular barato como o A03 é capaz de rodar um Genshin Impact da vida em low à 20-25fps… se tu reduzir a espionagem e um pouco a qualidade gráfica e/ou limitar a área à um mundo mais fechado, deve rodar tranquilo… A03 é bem básico.

O processamento de movimento é bem mais leve que processamento de biometria/IA… esse reconhecimento é feito localmente. O servidor só precisa guardar o que o cliente manda e retransmitir…

Tu fala tirando fotos ou usando para AR/VR? No primeiro, a camera é não consegue tirar foto com a velocidade que precisa na luminosidade do ambiente… meu A03 sofre com isso… no AR/VR, provavelmente o poder de processamento do SoC tá bem ultrapassado.

Mas do que tu tá falando? Sério… O processamento e render dessas imagens é feita no servidor, mas o processamento e render desses AR/VR geralmente é feito no cliente… a diferença é enorme.
À menos que o pessoal seja insano o suficiente de querer rodar AI em tudo que é rosto server-side… o que seria burrada… seria muito desperdicio de poder de processamento do server…