Gemini 'enlouquece' e responde de forma estranha, dizem usuários

Por Igor Almenara Carneiro

04/06/2024 - 12:452 min de leitura

Gemini 'enlouquece' e responde de forma estranha, dizem usuários

Fonte :

Imagem de Gemini 'enlouquece' e responde de forma estranha, dizem usuários no tecmundo

O Gemini está se comportando de forma estranha em algumas conversas, relatam usuários. O chatbot com inteligência artificial (IA) do Google responde frases repetidas, caracteres estranhos e até jargões desnecessários em contextos inadequados, segundo publicações compartilhadas no Reddit.

A causa disso ainda é um mistério, mas é um clássico sintoma de alucinação de IA. Em vez de apresentar respostas coesas, o assistente do Google começa a apresentar respostas desconexas ou repetitivas, não sanando a dúvida ou a solicitação do usuário.

Em um dos exemplos compartilhados no Reddit, um usuário mostrou o chatbot basicamente "enlouquecendo". A resposta à solicitação começa bem, mas logo se torna um texto totalmente ilegível, cheio de caracteres estranhos, palavras e termos repetidos e uma formatação totalmente ilegível.

Not Cauchy
byu/PeacefulOnReddit inGoogleGemini

Contudo, essa não foi a única situação em que o bot apareceu respondendo coisas estranhas. Outros relatos também compartilhados na rede mostram comportamento parecido em outras conversas, mostrando que o problema pode acontecer em uma variedade de contextos.

Segundo os relatos, os problemas acontecem tanto na versão web quanto no app do Gemini para celular. Portanto, é possível que o problema esteja contido na IA, ou na forma com que o Google encaminha a solicitação do usuário para os servidores.

"Gemini may display inaccurate info"
byu/tomadobi inGoogleGeminiAI

Por enquanto, a empresa não se manifestou sobre o problema. Contudo, uma vez que a questão parece ser algo recorrente, o Google deve lançar uma correção para as respostas malucas do Gemini em breve.

Interaja com responsabilidade

Os bugs com o Google Gemini reforçam, mais uma vez, a falta de confiabilidade nas respostas desse tipo de ferramenta. O chatbot é útil para sanar dúvidas rápidas e, por vezes, até sugerir ideias para um novo projeto ou viagem, mas ele não ele é capaz de avaliar a integridade das próprias respostas, assim cometendo erros que podem passar desapercebido.

Exemplo disso é o AI Overview, recurso experimental do Google, que poucos dias após o lançamento começou a apresentar respostas bizarras, tais como adicionar cola branca em pizzas, melhorar a ingestão de minerais comendo pedras e o hábito de fumar cigarros para gestantes.

Veja também


Por Igor Almenara Carneiro

Especialista em Redator

Redator de tecnologia desde 2019, ex-Canaltech, atualmente TecMundo e um assíduo universitário do curso de Bacharel em Sistemas de Informação. Pai de pet, gamer e amante de músicas desconhecidas.