Como a inteligência artificial pode conversar como humanos?
A inteligência artificial consegue entender e conversar como humanos devido ao desenvolvimento da tecnologia de processamento de linguagem natural. O PLN permite que os computadores leiam textos, ouçam e interpretem falas, identifiquem contextos e gerem respostas em linguagem humana.
Essa técnica combina os conhecimentos de inteligência artificial, ciência da computação e linguística para possibilitar uma comunicação cada vez melhor entre humano e máquina.
Como funciona o processamento de linguagem natural?
A evolução dos modelos de aprendizado de máquina, acompanhada do aumento de poder computacional e do Big Data, permitiu o treinamento de algoritmos capazes de processar e analisar a linguagem humana através de extensos bancos de dados.
Para compreender e interagir com linguagem semelhante à dos seres humanos, o PLN realiza uma sequência de análises para classificar e mapear os textos (e falas). Elas incluem: análise morfológica, sintática e semântica — que identificam as relações e estruturas gramaticais, bem como seus significados dentro de determinado contexto.
Em seguida, esses dados passam por uma análise estatística que calcula a probabilidade de certas palavras aparecerem juntas em cada contexto e a ordem delas em cada frase. É com essa capacidade que o PLN consegue analisar as perguntas e elaborar respostas.
Os modelos de linguagem de larga escala (LLMs), como o GPT e o LaMDA, utilizam esse método de processamento de linguagem natural para “conversar” com humanos em chatbots como o ChatGPT e o Bard.
Mas a IA pensa como humanos?
Não. Apesar da evolução das ferramentas de IA generativa e suas capacidades de ler, ouvir e respostas aos comandos, os modelos de linguagem não passam de “papagaios estocásticos” — como define a linguista da Universidade de Washington Emily Bender em artigo escrito junto com pesquisadoras de IA do Google.
“Estocástico” é uma teoria probabilística sobre eventos com variável aleatória. O uso desse termo representa bem o funcionamento dos LLMs e o processamento de linguagem natural: esses modelos não pensam sobre uma pergunta, eles apenas respondem com frases e palavras que têm grande probabilidade de aparecerem juntas naquele contexto.
CONTINUA APÓS A PUBLICIDADE
As respostas geradas pelas IAs em “conversas” com os humanos são a combinação da base de dados em que foram treinadas — e esses dados são, em suma, os conteúdos produzidos por humanos e publicados na internet.
Por isso, as IAs não são capazes de produzir ideias novas e soluções originais nem têm insights criativos. Elas apenas reproduzem — como papagaios — conteúdos que foram desenvolvidos por pessoas.
Vieses e alucinações das IAs
Assim como as respostas de IAs são a combinação probabilísticas de frases e palavras em determinado contexto, os modelos de inteligência artificial conversacional têm apresentado vieses e visões hegemônicas, além de casos com as chamadas “alucinações”.
Essas situações evidenciam o problema central sobre o treinamento dos modelos de linguagem de larga escala: eles são alimentados não apenas com dados precisos e confiáveis, como também “aprendem” com comentários machistas, racistas, antissemitas e todo tipo de preconceito que encontram em plataformas e redes sociais.
Além disso, os casos de “alucinação” em que as IAs produziram respostas absurdas ou completamente inventadas se tornaram bastante conhecidos. Esse erro ocorre como um efeito colateral do processo de remontagem dos textos pelo modelo de PLN.
As empresas detentoras de chatbots e ferramentas de IA generativa ajustam e filtram essas situações constantemente com o objetivo de fornecer um serviço cada vez mais seguro e confiável, mas os desafios ainda são grandes. Em julho de 2023, pesquisadores mostraram como burlar as travas de segurança do ChatGPT e do Bard para conseguir respostas com vieses preconceituosos ou envolvendo atividades criminosas.
Ao mesmo tempo, empresas de tecnologia estão unindo forças para regulamentar e desenvolver mais mecanismos de segurança em ferramentas de inteligência artificial. Juntas, Google, Microsoft e OpenAI anunciaram a criação de um fórum para discutir os riscos da IA.
*Com informações de Canal Tech