Alucinação de IA bagunça pesquisa do Google sobre ovo derretido
A pergunta “é possível derreter um ovo?” bagunçou o sistema de buscas do Google. O site usa um quadro para exibir a melhor resposta para a pergunta antes dos primeiros resultados de sites, mas mostrou uma resposta errada, gerada por inteligência artificial.
Uma publicação do usuário Tyler Glaiel viralizou no X (antigo Twitter) ao mostrar a resposta incorreta em destaque no Google. Para confirmar: não é possível derreter ovos por conta das proteínas na composição.
Por que isso aconteceu?
O motivo foi descoberto após uma breve investigação: o buscador considerou o site Quora com a melhor otimização para aparecer no topo da página e exibiu o trecho na miniatura de pesquisa, também chamada de snippet. O problema é que o Quora começou a usar respostas criadas por inteligência artificial e expôs uma alucinação, nome dado ao processo em que uma IA começa a se confundir e criar respostas incorretas.
Apesar de afirmar que as respostas são geradas pelo ChatGPT, o portal Ars Technica apurou que o Quora usou outro modelo de linguagem da OpenAI naquela pergunta, chamado text-davinci-003. Essa tecnologia é considerada obsoleta pela própria empresa e não é usada no popular chatbot, que adota os modelos GPT-3.5 e GPT-4.
Agora, ao pesquisar pelo mesmo questionamento no Google, a ferramenta mostra uma resposta diferente (e corrigida).
Outros problemas na busca
A situação do ovo pode até ser cômica, mas expõe um problema recorrente na qualidade das pesquisas do buscador. Usuários apontam para o excesso de respostas automáticas e anúncios, que podem representar informações incompletas em algumas situações, e recorrem a alternativas como o próprio Quora e o Reddit.
É importante lembrar que o Google pretende remodelar a busca para priorizar resultados gerados pelo Bard, o chatbot de inteligência artificial da Gigante de Mountain View.
Fonte: Ars Technica