Gráfico da Apple diz que M1 Ultra supera Nvidia RTX 3090, mas não é bem assim

3 curtidas

Kkkkkkk. Por isso que não dá para confiar plenamente nos que as empresas falam. Tem que esperar os testes de terceiros para confirmar.

O histórico dos chips ARM da Apple tem um mancha agora. Foi muita falta de bom senso da Apple.

Ela estava fazendo um excelente trabalho, e querer ganhar logo da Nvidia que é uma empresa que continua em evolução e a Apple com o primeiro chip de desktop, foi um erro que afeta credibilidade.

Devia está achando que a Nvidia é a Intel que passou anos dormindo

14 curtidas

Contudo, dizer que o M1 Ultra vence a RTX 3090 é o mesmo que falar que um carro popular é mais potente que uma Ferrari por consumir menos combustível ao dirigir a 80 quilômetros por hora.

Excelente comparação, hahahaha

4 curtidas

No caso, o M1 Ultra seria um Uno de empresa de telefonia com escada? :rofl:

4 curtidas

No blender a coisa fica mais feia ainda para a Apple.


fonte: Mac Studio Review - The Need for SPEED - YouTube

9 curtidas

Uma dúvida: a “perfeita” integração hardware e software não beneficiaria a Apple de forma relevante? Digo, mesmo se o M1 Ultra não for como uma RTX 3090, eles não conseguiriam ter desempenho semelhante ou até superior no trabalho propriamente dito?

1 curtida

penso que deva diminuir a diferença por causa da otimização, porque o hardware a distancia é gigantesca, enquanto no software já é ao contrario.

o M1 Max, os testes apresentava que tinha uma boa performance comparada a RTX 3060.

Mesmo que o ultra tem uma performance significadamente maior em relação ao Max, essa nível significativo também tem na linha RTX. Da 3060 para 3090 é muita diferença, e essa diferença não deva ser menor porque dois Max está colado.

1 curtida

Acredito que isso só ajudaria em aplicações próprias da Apple que usem Metal, a Nvidia tem uma grande vantagem porque o CUDA é a plataforma mais bem sucedida para computação em GPU e não tem muitos concorrentes.

Em aplicações multi-plataforma, quem tem a vantagem da otimização nesse contexto é a Nvidia. Para maioria das aplicações, faz mais sentido priorizar o stack da Nvidia que Apple. AMD nunca competiu bem nessa frente, então Nvidia está na frente de todo mundo e ninguém está “acostumado” a trabalhar com soluções multi-plataforma.

2 curtidas

Daonde saiu RTX 3090? De onde 3090 é GPU discreta? Poha…
Ali só tem o consumo. haha

Sei lá… pode ser uma das da Intel…

1 curtida

Para os meros mortais, isso pode significar pouco, mas, para estúdios de animações que precisam renderizar Petabytes, quiça Exabytes de modelos 3D, isso pode significar entregar o projeto no prazo, ou não…

Em termos de microarquitetura a NVIDIA é absoluta. Não tem nem o que ver aqui!

1 curtida

Apple deu aquele malabarismo básico para vender o seu peixe, mas não podemos negar que para um SoC, o M1 Ultra realmente tem muito poder de processamento e baixo consumo energético.

Talvez quando a Apple juntar uns 4 desses de alguma forma muito top, ela crie um dos melhores chips gráficos do mercado que não esteja numa placa de vídeo dedicada.

1 curtida

Em termos de microarquitetura a NVIDIA é absoluta. Não tem nem o que ver aqui

Mas o maior problema é suporte mesmo, Nvidia é a melhor mas AMD tem GPUs boas e a memória unificada da Apple pode ser mais interessante que força bruta para aplicações como machine learning.

Alguns modelos não cabem em memória e simplesmente não funcionam, você pode ter uma ótima RTX 3080 e não conseguir treinar o modelo porque ela “só” tem 10GB de memória. Um M1 Max pode ter mais que o dobro de memória da RTX 3090.

Entretanto, os frameworks de machine learning não têm suporte a GPUs que não sejam da Nvidia, então você continua limitado a usar soluções da Nvidia.

1 curtida

Discrete não é discreta (no sentido de pequena, despercebida), é distinta, separada da CPU.

3 curtidas

Eu fico me perguntando se precisa disso…Com a poeira mais baixa, já ficou mais que demostrado que sem se importar com eficiência energítica, os SOCs Apple não são supeirores ao X86 + GPU dedicada de ponta. E não vejo problema nisso, o produto de qualquer forma vai se encaixar para muita gente…

2 curtidas

Eu realmente tinha achado bem arriscado esse mercado “empresarial” que a Apple tentou tomar com o Mac Studio.

Pra falar a verdade, acho o Mac Studio é só um protótipo para se preparem para o novo Mac Pro.

A falta de modularidade e a não possibilidade de substituição do SSD (que agora está sendo desmentida pelos YouTubers de desmanche) deve limitar muito a compra por empresas, que é o foco desse novo Mac, então para qual público ele será?

1 curtida

po… tanta palavra em inglês pro pessoal usar, eles usam uma que tem os dois sentidos. hahaha

1 curtida

Uma M1 Ultra e uma RTX 3090, as duas a 80km/h…

1 curtida

Eu acho que você está confundindo as aplicações. Uma RTX 3090 pode, mas não deve, ser utilizada para este tipo de propósito. Existem soluções mais específicas da Nvidia que superam, e muito, o potencial até mesmo de um cluster de RTX’s 3090s para machine learning e IA. Vide as soluções de DPU (Data Processing Units) como a Bluefield-3, por exemplo: NVIDIA BlueField Sets New World Record for DPU Performance | NVIDIA Blog

Eu acho que você está confundindo as aplicações. Uma RTX 3090 pode, mas não deve, ser utilizada para este tipo de propósito.

Como assim “não deve”? A Nvidia coloca todo o potencial de computação (Tensor e Cuda cores) nas placas gamers justamente para quem deseja trabalhar com aplicações de machine learning localmente. Para muitos projetos, uma GPU “comum” resolve, estou falando desse público.

É muito bom poder prototipar e treinar modelos menores localmente, mas memória normalmente é um problema e costuma ser um recurso escasso em GPUs mais baratas. Nesse cenário – se houvesse suporte – a memória compartilhada seria muito interessante, se pensar que um M1 Pro de entrada já tem 16GB.

Para esse público, que deseja montar uma workstation, a RTX 3090 é o melhor produto da Nvidia.

Existem soluções mais específicas da Nvidia que superam, e muito, o potencial até mesmo de um cluster de RTX’s 3090s para machine learning e IA.

A melhor solução da Nvidia é uma A100, que é basseada na mesma arquitetura Ampere das RTX mas com foco em Tensor/Cuda Cores. Não é nada tão diferente de uma RTX, Linus conseguiu usar em várias aplicações desktop “comuns”.

São essas placas usadas em cloud para treinar os maiores modelos.

O acerto da estratégia da Nvidia foi manter compatibilidade de software, usando hardware similar entre as linhas: você pode usar o mesmo código em uma GTX 1650, em uma RTX 3090 ou na cloud com várias A100 conectadas por NVLink.

Vide as soluções de DPU (Data Processing Units) como a Bluefield-3, por exemplo: NVIDIA BlueField Sets New World Record for DPU Performance | NVIDIA Blog

Isso é outro componente do data center, para comunicação entre nós, não é um substituto para GPU para treinamento de modelos.

1 curtida

O problema é que o Windows vai reiniciar no meio da renderização hehe