ChatGPT enlouqueceu? Saiba o que motivou o comportamento curioso da plataforma  | GZH


Recent changes to ChatGPT aimed at making it more human-like resulted in unexpected and humorous responses, prompting OpenAI to revert to a previous version.
AI Summary available — skim the key points instantly. Show AI Generated Summary
Show AI Generated Summary
Modificação queria dar tom humano para a plataforma.Justin TALLIS / AFP

Usuários do ChatGPT têm reclamado nas redes sociais da mudança de personalidade da ferramenta. Nas últimas semanas, a plataforma de inteligência artificial (IA) focada em linguagem foi modificada para parecer mais humana. 

A OpenAI, empresa responsável, voltou para uma versão anterior após os relatos negativos. Segundo especialista, ajustar os prompts pode ajudar a evitar as alucinações do chatbot.

Em um post no LinkedIn, uma estudante relata que a ferramenta parece um adolescente, respondendo as perguntas de maneira exageradamente coloquial e com brincadeiras excessivas. 

No X (antigo Twitter), usuários afirmam que o ChatGPT "enlouqueceu de vez", com longas risadas como respostas ou avisos de que está mentindo.

— De fato isso está acontecendo. E teve a ver com uma modificação que a OpenAI fez no treinamento do ChatGPT. A ideia deles foi muito no sentido de dar um pouco mais de personalidade para o modelo. São pequenas adaptações que acontecem com frequência e são bem testadas, mas eventualmente algumas questões acabando passando, que foi o caso aqui — explica Rafael Kunst, professor e pesquisador do Programa de Pós-Graduação em Computação Aplicada da Unisinos:

— Não surtiu o efeito que esperavam, e aí eles reverteram.

Kunst afirma que essas modificações que procuram dar mais personalidade são interessantes para tornar a interação com os humanos mais próxima de uma conversa real.

O especialista garante que, como a empresa voltou atrás na modificação, o problema pode ter desaparecido para a maioria dos usuários que usam a IA generativa paga e a gratuita. Além dessa, pode haver outras justificativas para que o ChatGPT dê respostas absurdas e bem-humoradas:

— É uma característica que criadores desse tipo de modelo acabam lançando mão para chegar em um tom mais próximo daquilo que os usuários estão acostumados, que é a ferramenta aprender a forma que a pessoa gosta de se comunicar e tentar replicar. Quando tenta aproximar, ocorrem esses exageros.

O professor acrescenta que é possível que esses modelos de IA generativa alucinem. Esse é o termo técnico usado para descrever quando a IA gera informações incorretas, inventadas ou, neste caso, absurdas. A ferramenta pode construir resposta com base em contextos anteriores e, por já estarem distorcidos ou incorretos, gera resultados pouco compreensíveis.

— Como é baseado em probabilidades, o modelo entra no caminho e foge do que deveria responder. Aí acaba alucinando e não consegue voltar para o contexto inicial. Aquele exemplo de uma resposta que são vários “K” é claramente alucinação. Mas é algo natural desses modelos, existe uma probabilidade, ainda pequena, de ele pegar o caminho que não é adequado — complementa Kunst.

O que fazer?

Nesses casos, a solução é ajustar o prompt (comando) ou recomeçar a interação. O professor sugere que o usuário diga em qual linguagem prefere a resposta. Por exemplo, é possível pedir para o ChatGPT que transforme um e-mail escrito com palavras simples e expressões coloquiais em algo mais formal para o ambiente de trabalho. Ou, ainda, iniciar a interação do zero, dando o contexto inicial novamente, e solicitando a resposta adequada.

Was this article displayed correctly? Not happy with what you see?

We located an Open Access version of this article, legally shared by the author or publisher. Open It

Share this article with your
friends and colleagues.

Facebook



Share this article with your
friends and colleagues.

Facebook