Ué, quando eu fiz algo parecido (em dezembro) não virou notícia hahahaha
Talvez seja a mesma coisa com sudoku, ele deve ter “aprendido” a resolver sozinho. A questão é que ele não sabe resolver, mas acredita que sabe.
Também gera SVGs.
A questão aqui é simples. É um modelo de linguagem de texto. Tudo que for linguagem de texto, o modelo “aprende” a fazer. Então daria até para fazer imagens complexas se… tudo for em texto. É exatamente por isso estes LLMs são excelentes para programar, por que no fim programar é uma linguagem, um texto.
Isso me lembra quando experimentei pedir ao ChatGPT desenhar o logo da Globo em SVG. Apesar de ter acertado os formatos (dois círculos e um quadrado), ele errou as posições. Mas achei impressionante ele saber isso, já que é um chat treinado em texto.
Qual a diferença fundamental para você? Primeiro vc disse que ele deve ter “aprendido” ai depois vc disse que ele não “sabe” resolver. Na minha visão se ele criou um algoritmo por si mesmo para resolver, então ele sabe.
Fiz isso no primeiro dia em que experimentei usar o ChatGPT. O do Bing pegou isso de lá, pq já sabia fazer a muito tempo, ele não “aprendeu” sozinho
Mas o ChatGPT também aprendeu sozinho. O funcionário da Microsoft estava falando sobre o modelo. Ninguém criou GPT para criar imagens (até por que, OpenAI tem o Dall-e e outros serviços pra isso)
Começa aprendendo arte ASCII, termina exterminando a humanidade.
Simples, ele “aprendeu” errado.
Como faz pra usar esse bing chat com IA? Gostaria de comparar ele com o chatGPT para auxílio na criação de templates para códigos.