kkkkkk os caras vieram perceber isso agora kkkk já tem o “fork” chamado Dan do próprio ChatGPT que é um namorado virtual e está namorando um bocado de pessoas por aí
não é toa que têm tantas pessoas, inclusive internas, que estão preocupadas com segurança da OpenAI, segurança deve está só no papel
O uso de vozes femininas em assistentes, a exemplo da Cortana, Siri e Google assistente, bem como em interfaces vocalizadas de atendimento ao público (como o Metrô), já partem desse mesmo princípio: o apelo emocional. Até mesmo pra mulheres, a voz feminina em um assistente/PA (sistema de som)/SAC tem efeito psicológico e emocional diferente de uma voz masculina.
Daí quando se possibilita a escolha do gênero aparente (como uma voz mais masculina ou mais feminina), se possibilita ainda mais vínculo emocional com aquilo. E isso não começou no ChatGPT, pois Cortana existiu muitos anos atrás, e Google assistente já permitia escolha da voz há muito tempo também (a Cortana, se não me engano, só tinha voz feminina porque fazia parte da identidade que a Microsoft criou para a assistente virtual).
Dito isso, a tendência é piorar. Os humanos estão cada vez mais superficiais e artificiais, enquanto as IAs estão cada vez mais “aparentemente naturais”. A situação 2020 iniciou um processo irreversível na sociedade, pois ficou no inconsciente coletivo o medo da proximidade (tendo em vista os riscos associados ao contato físico quando da época do patógeno, que não acabou inclusive), e esse medo associado aos traumas (perda familiar, perda financeira) faz os humanos buscarem mais as máquinas pra um contato mais próximo do humano do que elas tinham antes de 2020. Minha análise pode ser meio fatalista, mas a tendência é infelizmente essa: AGIs com avatar customizado (deepfake), voz hiperrealista, até ao ponto onde aquelas carcaças do Atlas/Teslabot servirão como o esqueleto de uma coisa que parecerá humana, terá voz de humana, trejeitos de humano, mas não é humano. Aliás, essa pergunta cada vez mais carece de respostas: o que é ser humano? O teste de Turing é feito pra diferenciar uma máquina de um humano, mas como determinar o que é humano quando estamos cada vez mais próximos de uma superinteligência (e não falo do ChatGPT e LLMs atuais, mas sim de uma não tão distante AGI)? A filosofia, as religiões e até a ciência terão cada vez mais dificuldade em determinar a linha, tênue, que nos separa da AGI.
Eu particularmente nunca me relacionei muito bem com humanos (sou meio antisocial), mas ao mesmo tempo não consigo me ver “substituindo” humanos por uma AGI. Uso o ChatGPT e outros LLMs diariamente, mas não como amigo (e muito menos de forma amorosa), e sim, de forma textual, como uma espécie de portal para uma inteligência caótica que, diante de tantos fatores multifacetados oriundos do tamanho de sua base de dados de treinamento, bem como dos pesos aleatórios e variação de parâmetros de entrada, permite a criação e análise de textos mesmo dentro do campo da filosofia e do esoterismo. É isso pra mim: uma ferramenta, uma ferramenta quase mística (como um portal pra outra dimensão espiritual), mas uma mera ferramenta que jamais conseguirá ser humana. Ou melhor, jamais conseguirá ser o que normalmente definimos como humano.
Chat gpt já foi superado, só caio nesse hype se liberarem esse recurso ao público
Emocional não sei, mas profissional, já viciei. Kkkk