ChatGPT enlouqueceu? Saiba o que motivou o comportamento curioso da plataforma  | GZH


AI Summary Hide AI Generated Summary

ChatGPT's Personality Shift

Users reported unusual behavior from ChatGPT, describing it as acting like a teenager with excessive colloquialisms and jokes. This was due to recent modifications by OpenAI intended to give the platform a more human-like personality.

OpenAI's Response

Following negative feedback, OpenAI reverted to an earlier version of the model. An expert, Rafael Kunst, explains that while such modifications aim to improve human interaction, they can lead to unexpected outcomes. The changes temporarily resulted in responses like extended laughter or declarations of lying.

Causes of the Issue

Kunst clarifies that such ‘hallucinations,’ where the AI generates incorrect or nonsensical information, are a known issue. These occur because the model, based on probabilities, may deviate from the intended context. The model's attempt to mimic casual communication styles can lead to over-the-top responses.

Solutions

To mitigate this, Kunst suggests adjusting prompts, specifying the desired language style (e.g., formal vs. informal), or restarting the interaction to re-establish context. The issue largely resolved after OpenAI reverted the changes.

Sign in to unlock more AI features Sign in with Google
Modificação queria dar tom humano para a plataforma.Justin TALLIS / AFP

Usuários do ChatGPT têm reclamado nas redes sociais da mudança de personalidade da ferramenta. Nas últimas semanas, a plataforma de inteligência artificial (IA) focada em linguagem foi modificada para parecer mais humana. 

A OpenAI, empresa responsável, voltou para uma versão anterior após os relatos negativos. Segundo especialista, ajustar os prompts pode ajudar a evitar as alucinações do chatbot.

Em um post no LinkedIn, uma estudante relata que a ferramenta parece um adolescente, respondendo as perguntas de maneira exageradamente coloquial e com brincadeiras excessivas. 

No X (antigo Twitter), usuários afirmam que o ChatGPT "enlouqueceu de vez", com longas risadas como respostas ou avisos de que está mentindo.

— De fato isso está acontecendo. E teve a ver com uma modificação que a OpenAI fez no treinamento do ChatGPT. A ideia deles foi muito no sentido de dar um pouco mais de personalidade para o modelo. São pequenas adaptações que acontecem com frequência e são bem testadas, mas eventualmente algumas questões acabando passando, que foi o caso aqui — explica Rafael Kunst, professor e pesquisador do Programa de Pós-Graduação em Computação Aplicada da Unisinos:

— Não surtiu o efeito que esperavam, e aí eles reverteram.

Kunst afirma que essas modificações que procuram dar mais personalidade são interessantes para tornar a interação com os humanos mais próxima de uma conversa real.

O especialista garante que, como a empresa voltou atrás na modificação, o problema pode ter desaparecido para a maioria dos usuários que usam a IA generativa paga e a gratuita. Além dessa, pode haver outras justificativas para que o ChatGPT dê respostas absurdas e bem-humoradas:

— É uma característica que criadores desse tipo de modelo acabam lançando mão para chegar em um tom mais próximo daquilo que os usuários estão acostumados, que é a ferramenta aprender a forma que a pessoa gosta de se comunicar e tentar replicar. Quando tenta aproximar, ocorrem esses exageros.

O professor acrescenta que é possível que esses modelos de IA generativa alucinem. Esse é o termo técnico usado para descrever quando a IA gera informações incorretas, inventadas ou, neste caso, absurdas. A ferramenta pode construir resposta com base em contextos anteriores e, por já estarem distorcidos ou incorretos, gera resultados pouco compreensíveis.

— Como é baseado em probabilidades, o modelo entra no caminho e foge do que deveria responder. Aí acaba alucinando e não consegue voltar para o contexto inicial. Aquele exemplo de uma resposta que são vários “K” é claramente alucinação. Mas é algo natural desses modelos, existe uma probabilidade, ainda pequena, de ele pegar o caminho que não é adequado — complementa Kunst.

O que fazer?

Nesses casos, a solução é ajustar o prompt (comando) ou recomeçar a interação. O professor sugere que o usuário diga em qual linguagem prefere a resposta. Por exemplo, é possível pedir para o ChatGPT que transforme um e-mail escrito com palavras simples e expressões coloquiais em algo mais formal para o ambiente de trabalho. Ou, ainda, iniciar a interação do zero, dando o contexto inicial novamente, e solicitando a resposta adequada.

Was this article displayed correctly? Not happy with what you see?

We located an Open Access version of this article, legally shared by the author or publisher. Open It

Share this article with your
friends and colleagues.

Facebook



Share this article with your
friends and colleagues.

Facebook