Nova IA da Alibaba promete superar DeepSeek e ChatGPT

Rapaz! Janeiro nem acabou a chinesada tá mostrando serviço em relação a IA!
Enquanto isso a Apple continua apanhando com o Apple Intelligence.

16 Likes

Os chineses estão a todo vapor e darão novo rumo a guerra de IAs. A Apple, por outro lado, fracassou miseravelmente em lançar sua Apple Intelligence a tempo, mesmo contando com um “orçamento infinito”.

8 Likes

[Acorde]
[Olhe para o horizonte do grande sol vermelho de Mao Zedong]
[Veja o mercado de IA se desestabilizar drásticamente por causa do Deep Seek]
[Alibaba decide entrar no mercado de IA]
[Bolsa americana entra em negativo]
[Não faça nada]
[Ganhe.]

Simplesmente China.
Simplesmente.

12 Likes

Ver o Ursinho Pooh ativar sua forma Ultra Instinct não estava no meu bingo de 2025, mas que tá interessante de se ver, ah se tá.

8 Likes

E o Apple Intelligence ó…

4 Likes

Eu veria com estranhamento a Apple ter sua própria IA nesses moldes. A perspectiva dela sempre foi de fazer produtos e serviços de excelência, incluindo as tecnologias com um mínimo de maturidade para serem impulsionadas até o estado da arte.

Agora, com esse modelo open source do DeepSeek, aí eu vejo ela começar a criar sua própria IA em casa, agregando valor ou como um serviço standalone.

1 Like

kkkkkkkkkkkkkkkkkkkkkkkkkkkkkk sai do fake sonilvaldo

6 Likes

Traduzindo: assim como a Samsung divulga a Galaxy AI basicamente usando o Gemini pra quase tudo (e fingindo ser uma solução Samsung), a Apple pode pegar uma IA de código aberto, usar de “fundo”, meter uma UI lindíssima por cima (nisso a Apple realmente ainda é a melhor, em fluidez de UI), e fingir que reinventaram a roda com a Apple Intelligence 2.0 kkkkkk

PS: sou usuário de Apple, só n finjo que a empresa é perfeita hahah

6 Likes

ué, não é oq ela está fazendo AGORA com o chatGPT? :joy:

PS: Sou usuário apple também

4 Likes

Quase, pq a Apple ainda indica que a Siri vai perguntar pro ChatGPT (diferente da Samsung, que já vai direto pro Gemini), mas isso, é só por enquanto, vai vendo :joy:

Ent entende bem!!

1 Like

Encontrei quatro lugares para usar o Qwen 2.5 (max ou normal):

  • HuggingChat no HuggingFace, a versão normal (não max). Exige conta do HuggingFace, mas do Qwen só há por enquanto o 1.0 e 2.5 normal ali (além de outros modelos de LLM como Phi, Gemma, Llama e outros).
  • Space Qwen/Qwen2.5-max-demo também no HuggingFace, a versão Max.
  • 通义千问/Tongyi Qianwen, um site todo em Mandarim na nuvem do Alibaba onde consegui, com ajuda do Google Lens e de pistas iconográficas, criar conta (autenticação única via SMS similar ao TikTok/Kwai/similares, o legal é ele já ter reconhecido o DDI 55 e o SMS chegar corretamente, mesmo com o corpo do SMS todo em mandarim) e fazer um prompt. Depois de criar conta, constatei que aparentemente ali só há a versão normal disponível, e a resposta só vem somente em Mandarim, embora ele “entenda” a pergunta em Inglês.
  • Por fim, o Qwen Chat onde há disponível a versão Max, no que criei outra conta (nesse não exige celular, só um email, nome e senha) e, como uma espécie de meta-pergunta, questionei (também em inglês) a diferença entre ele e o site anterior do Alibaba. A resposta veio em inglês e ele menciona ser capaz também de conversar em Português.

Certamente há outras plataformas hospedando o Qwen, mas esses são os canais oficiais fornecidos pelo Alibaba. Ficam aqui, portanto, os caminhos para quem quiser testar (incluindo o site todo em Mandarim provavelmente destinado ao público chinês mas que aceita criação de conta não-chinesa e uma forma de treinar seu Mandarim hahah).


Eu adquiri uma mania de testar um mesmo prompt em múltiplos LLMs diferentes de forma a comparar as respostas. Os LLMs meio que se complementam. Às vezes sou guiado a determinados conceitos por um, complementados pelos conceitos de outro, e assim por diante. É legal essa diversidade de LLMs, porque cada um foi treinado de uma forma distinta (principalmente os de fora dos EUA).

4 Likes

https://www.tecmundo.com.br/celular/401981-apple-intelligence-come-7-gb-de-espaco-no-iphone-veja-como-desabilitar-a-ia.htm

1 Like

8 Likes

Faltou o “recuse a elaborar”

1 Like

Valha mkkkkk e soou assim como um elogio à Apple? Eu hein

1 Like

Virou festa kkkk
Toda semana uma IA saindo do forno
E os EUA entrando em parafuso com os últimos acontecimentos
Não bastou 500 bilhões de dólares irem pro ralo nos EUA por causa de uma IA criada com uma fração do preço das convencionais e chips antigos, agora essa.

Oficialmente estamos na Guerra Fria II - A Guerra da Tecnologia
Que vença o melhor

5 Likes

Pois é, e além disso, houve uma intensa otimização e preocupação com eficiência por parte da DeepSeek. Usaram código a nível de hardware (PTX, tipo “Assembly” para GPUs NVIDIA) e demais técnicas que resultaram em um modelo extremamente eficiente.

Tão eficiente, de fato, que rodou no meu PC da xuxa (um Intel Core i5-7200U com 12GB de RAM, sem GPU dedicada nem GPU onboard que tenha capacidade para Vulkan/CUDA/etc):

O print acima é uma inferência local, no meu notebook, sem internet. Embora o modelo que usei é uma distilação do DeepSeek (DeepSeek-R1-Distill-Llama-8B-Q4_K_M.gguf, uma versão GGUF (adaptada para inferência via CPU) do modelo original da DeepSeek distilado com o Llama usando “apenas” 8 bilhões de parâmetros) que não é, portanto, O DeepSeek que roda lá no site oficial (este tem mais de 600 Bilhões de parâmetros e exige uma GPU com uma quantidade de vRAM inimaginável pra mim), ele ainda difere dos outros modelos “open-weighted” como Gemma e o Llama, no sentido que é treinado para fazer “reasoning”. Fiquei embasbacado vendo meu notebook “raciocinando”, embora na velocidade de lesma (120 segundos para a inferência desse bloco de texto aí no print, 2 tokens por segundo).

O modelo está disponível lá no HuggingFace e tem várias versões de distilação, quantização e etc, porque sendo um modelo “open-weighted”, as pessoas podem fazer modificações como bem quiserem. Se não me engano, nem o Gemma ou o Llama permitem tanta modificação assim, sendo que o Gemma inclusive exige “aceitar termos de uso” numa página da Google antes de baixar o modelo no HF, enquanto nem o DeepSeek nem o Qwen têm essa frescura de “termos de uso” a serem explicitamente aceitos.

2 Likes

Não entendo nada sobre funcionamento das IAs, mas o fato de você conseguir rodar no seu PC que e muito menos potente que as poderosíssimas estações dessas empresas é um feito e tanto, ansioso de como será essas IAs super otimizadas no futuro.

Quase como uma bruxaria, já que até agora sabemos que as IAs populares consomem energia e processamentos praticamente infinitos no ponto de vista computacional pessoal.

O fato de ser open source e uma valiosa vantagem, não vai morrer nunca, nem se a empresa falir amanhã.

Mas, 2025 promete ser de enormes emoções, estos vivendo uma nova era, uma nova Guerra Fria tecnológica, onde os EUA, depôs de 3 séculos, pode sair do protagonismo e ficar para trás.

Por um lado, foi até bom Trump ter ganhado, cada um vai defender e atacar com unhas e dentes, e estamos falando de leões grande.

Todos nós temos a ganhar com isso.

1 Like