Criador do ChatGPT pede regulamentação para evitar IA “assustadora”
O CEO da OpenAI Sam Altman acredita que o mundo pode receber em breve uma inteligência artificial “potencialmente assustadora”. Em razão disso, o executivo aposta na necessidade de regulamentação das IA para que estas não tragam problemas a nível mundial.
A previsão nada animadora foi postada em uma sequência de tuítes no perfil oficial de Altman. O dono da empresa criadora do ChatGPT comparou o atual momento de introdução de IAs na sociedade como a época do “mundo pré-smartphone para o pós-smartphone”.
Ele acredita na necessidade de tempo para a adaptação a algo tão grandioso quanto as inteligências executadoras de tarefas rotineiras. Isso vale tanto para as pessoas quanto para as instituições, incluindo os órgãos reguladores e autoridades.
“Embora as ferramentas de IA da geração atual não sejam muito assustadoras, acho que não estamos tão longe de algo potencialmente assustador”, tuitou o executivo.
Regulamentação de IAs
Esta não é a primeira vez que Altman defende um olhar mais rígido de controle sobre inteligências artificiais. Em 2015, muito antes do ChatGPT e do DALL-E, ele já falava sobre a importância de regras para a criação de ferramentas de aprendizado profundo e redes neurais.
A argumentação não tem nada a ver com revolução das máquinas, como muito se fala por aí, mas sim com o uso irregular das ferramentas para práticas criminosas. Para Altman, a regulamentação retardaria os bandidos e aceleraria os “mocinhos”, justamente porque criaria bloqueios para a utilização.
A fala do fundador da OpenAI parece reforçar o que o Diretor Financeiro da companhia, Mira Murati, disse em uma entrevista recente para a revista Time. Na ocasião, o CTO pediu a regulamentação do ChatGPT para evitar o mal uso. Um dos cofundadores da OpenAI, Elon Musk também acredita no uso indevido do imenso potencial da IA.
“Acho que precisamos regular a segurança da IA, francamente. Acho que é realmente um risco maior para a sociedade do que carros, aviões ou remédios”, disse Musk em conversa com a rede CNBC.
IAs de conversa sob os holofotes
Existe um certo ceticismo das pessoas nas conversas com chatbots de conversas humanizadas, como o ChatGPT e rivais, mesmo que as pessoas conheçam o funcionamento. O problema é que os modelos de IAs podem evoluir para algo não previsto originalmente, como ocorreu com o Bing e suas respostas estranhas, que iam de um tom sarcástico até algumas demonstrações emocionais.
Na ocasião, a Microsoft explicou que a desregulação é fruto das conversas longas, com mais 15 interações, as quais “cansam” a ferramenta. A tendência do Bing foi dar respostas incompletas, curtas, emocionadas ou incorretas. Enquanto não cria um botão de limpar conversas, a empresa decidiu limitar a cinco perguntas o máximo de interações por sessão — após isso, é preciso iniciar um novo chat.
Recentemente, Altman disse que sua criação é algo “legal”, mas um “produto horrível”. A declaração está relacionada às falhas do produto, como respostas erradas, e às constantes instabilidades do site, que limita o acesso para evitar sobrecarga dos servidores.
O maior temor parece ser na desvirtuação do algoritmo das plataformas, mesmo com o trabalho de desenvolvedores e revisores humanos de barrar interações indevidas. A verdade é que nunca se sabe como uma tecnologia inteligente poderia evoluir, ainda que possua amarras ou botões de pânico. Por enquanto, resta saber como as autoridades dos Estados Unidos, país-sede da OpenAI, vai lidar com as IAs, porque a decisão pode ser um parâmetro para o restante do mundo.
Fonte: CNBC e Canal Tech