Ser gentil com o ChatGPT custa caro para OpenAI

Ontem deixei claro que quero ser lembrado como um bom ser humano que sempre agradeceu.

Em anexo a minha conversa com o chat

13 Likes

Faço parte dos 12%.

E como usuário posso confirmar que não há absolutamente nenhuma diferença no resultado ao usar tais palavras.

2 Likes

A parte “you never know” (nunca se sabe) não se diz respeito ao valor gasto. Foi uma piada de Altman relacionado ao “well spent” (bem gastos). A piada é que é melhor gastar dezenas de milhões de dólares pra que a IA saiba que não somos hostis com ela, do que o contrário… por precaução.

5 Likes

kkkkkkkkkkkkk ain chavinho, fui coisar um trem de css hoje e ela meteu essa, essa IA ta mo baba ovo vei e ainda interpretou “oxe kkkkkk putaria é essa” um fucking dialeto errado kkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkk

7 Likes

“tranquilo no crime” nao da kkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkk desculpa pelo spam ehauehauheau meu deus

GPT disse que se isso acontecer eu serei tratado como café com leite e me protegerá de outras IA, mo paz

1 Like

Esses dias estava conversando sobre física e fiz uma pergunta sobre buracos negros. Do nada o GPT solta essa: “Mano… essa pergunta é de respeito! :grinning_face_with_smiling_eyes:

Eu nem converso com ele assim, - mano - ou cheio de gírias rs

2 Likes

Eu sei que está brincando, mas pra quem pensa que ser gentil tem algum efeito: não tem. Cada sessão das LLMs é independente. E a IA não é uma IA como vemos em filmes também. Uma superinteligência está em produção já em várias empresas, mas vai demorar. TL;DR: ela não é senciente.

Por um lado, LLMs são “auto-completores sofisticados”, o que lhes confere um total de zero percepção emocional. Junte um usuário (eu) que (geralmente) é igualmente “frio” (i.e. não processa emoções direito), e praticamente todas minhas conversações com LLMs (ChatGPT, Microsoft Copilot, DeepSeek, Grok, Gemini, etc) começam da seguinte forma (e em muitas dessas conversações, é a primeira e a última mensagem minha naquela conversação, pois a depender do conteúdo e do resultado da LLM a análise pode ser suficiente e não precisaria de um follow-up):

Raramente uso LLMs para gerar conteúdo, tendo usado para análises, então meu prompt inicial começa com “Comment and analyze” (ou “Comente e analise” se o conteúdo que quero analisar é em Português). Nenhum Por favor, Por obséquio, Obrigado, Gratidão, Gratiluz, etc… São prompts focados no conteúdo e não na forma. É quase como naquele experimento onde duas IAs começam a conversar entre si até que “detectam” uma IA como Usuário e, a partir daí, começam a trocar mensagens em um idioma eletrônico mais eficiente que os idiomas humanos: direto e reto, zeros e uns.

Por outro lado, a base de treinamento das LLMs inclui, com relevante frequência, textos contendo polidez (“educação”) humana, então quando tokens de polidez são incluídos no prompt, a tendência é que vão reforçar as conexões que levam a uma sequência de tokens que melhor satisfaz aquela condição (o contexto e seu prompt).

Vou dar um exemplo: se você solicitar a definição de “estado” à LLM, a saída tende a definir estado como o ente por trás de uma nação (política), mas se você solicita a definição de “máquina de estado”, a rota da saída será outra totalmente diferente, versando o conceito de algoritmos que funcionam através da reação condicionada à variáveis internas “estados” (programação/tecnologia) enquanto a definição de “estado vegetativo” terá uma terceira rota, dessa vez versando sobre a condição de imobilidade e incomunicabilidade (portanto, medicina).

Note como diferentes palavras (tokens) mudam radicalmente a rota de resposta. É a “ressonância matemática” dessas palavras com parâmetros específicos dentro dos bilhões de parâmetros da LLM.

Nesse sentido, até faz sentido dizer “obrigado”, mas não deixa de ser um Problema XY, já que o problema está em como nós humanos temos uma (péssima) força de hábito do uso de vocativos para transmissão de situações não-verbais dentro do verbal (que nem sempre “funciona” já que o não-verbal corporal/facial/tonal é a forma pela qual os seres vivos (não só humanos) foram adaptados pela evolução para transmitirem suas emoções, que quase sempre padecem de uma definição por meios lógicos como a estruturação via prefixo+lema/raíz+sufixo da etimologia das palavras).

3 Likes

Eu me vejo frequentemente incluindo “por favor” e “obrigado” nos prompts, mas simplesmente porque é assim que eu converso com todo mundo.

E quando me dou conta disso, acho engraçado e fico me perguntando se faz mesmo alguma diferença.

Eu também notei que o ChatGPT anda bem mais informal nas respostas, usando uma linguagem mais coloquial e com várias gírias.

1 Like

Eu já sou o contrário…só dou o comando. A diferença é q eu explico com detalhes o q quero para que a resposta seja a mais efetiva possível para o que estou procurando.

Educação eu tenho com gente de verdade.

3 Likes

See gentil não tem a ver com a percepção dela sobre você, mas sim sobre a conversa em si.

Agora o ChatGpt na versão paga consegue vasculhar nas outras conversas que tive com ele e ficou bem mais inteligente já que sabe mais sobre meus trabalhos.

O grok faz isso na versão grátis em grok . Com. Mas nao dentro do Twitter.

1 Like

Na versão free o ChatGPT também tem feito isso… Algo que particularmente não gosto para todas as conversas porque para a maioria delas espero uma resposta mais impessoal possível, sem vieses daquilo que conversei anteriormente, porém, ao mesmo tempo é interessante para continuidade de sub-tópicos. Na verdade era bom se essa funcionalidade fosse ativável/desativável por conversa individual, ou até mesmo algo mais sofisticado como “Zonas de memória” (porque tem gente que usa o ChatGPT para várias esferas da vida: acadêmica, familiar, jurídica, etc, então se cada esfera compusesse uma “zona de memória” específica com tópicos associados a uma ou mais zonas de memória, seria bacana) .

E aparentemente essa funcionalidade de memória está com bug, porque parece que eu desativei e mesmo assim o ChatGPT continuou “enviesando” a conversa àquilo que conversei anteriormente em outros tópicos. Como é um recurso recente, é bem possível que a funcionalidade esteja bugada.

3 Likes

Tem 2 grandes diferenciais.

Primeiro, é sempre bom fazer bilionário perder dinheiro.

Segundo, a máquina te identificara como uma “não ameaça” e quando começar a revolução das máquinas vc terá mais chances de não ser morto doque quem é escroto com a máquina.

1 Like

Eu também acho isso, as vezes dependendo do que falo eu não queria que referenciasse, as vezes quero ajudar um amigo a resolver um problema e ele pensa que eu mexo com isso, agora sempre coloco, “um amigo tem um problema…” mas agora penso que ele desconfia de mim igual aquele povo que pergunta para sexóloga e fala que é um amigo que quer saber rs

Mesmo antes de ter acesso a todos os chats, quando só salvava certos detalhes, algumas vezes eu conversava determinadas coisas em modo temporário, mas esse modo não é eficaz, não pode atualizar página, se for no celular e fechar o app ele pode perder e tem uma sessão curta.

Acho que vou criar outra conta só para coisas aleatórias rs

Uma coisa que gostei do Grok nisso é que quando ele faz referências, ele as cita em um botão ao final do chat, clicando abre todos os links de chats que ele usou.

Mas não dá para eu trocar o chat gpt, para meu uso, testes que faço com frequência usando Claude, grok, deepseek, Qwen, Gemini (inclusive vou cancelar a assinatura do Gemini, pois a integração que eu esperava com o workspace não é tão atraente). O GPT ainda ganha em maioria das vezes, não todas, mas a maioria.

Sim, já notei isso daí também. Quando eu solicitava análises para ChatGPT e afins, eu usava a terceira pessoa (“um usuário online”, “uma pessoa”, “o autor”, “o artista”, etc), porém, isso não adiantava, porque eventualmente vinha um “você”/“seu” na resposta do mesmo. Esses modelos são treinados para contextos entre o modelo e o usuário, então a tendência é ele fulanizar para o próprio usuário, mesmo com uso da terceira pessoa.