Os especialistas em tecnologia estão começando a duvidar que o ChatGPT e as ‘alucinações’ de inteligência artificial desaparecerão algum dia ‘Isso não tem conserto

Os especialistas duvidam que o ChatGPT e as 'alucinações' da IA desapareçam 'Isso não tem conserto

Descrito como alucinação, confabulação ou simplesmente inventar coisas, agora é um problema para todas as empresas, organizações e estudantes do ensino médio que tentam fazer com que um sistema de IA generativa componha documentos e realize tarefas. Alguns estão usando-o em tarefas com potencial para consequências de alto risco, desde psicoterapia até pesquisa e redação de peças jurídicas.

“Eu não acredito que exista algum modelo hoje que não sofra de alguma alucinação”, disse Daniela Amodei, co-fundadora e presidente da Anthropic, criadora do chatbot Claude 2.

“Eles são realmente projetados para prever a próxima palavra”, disse Amodei. “E, portanto, haverá uma taxa em que o modelo faz isso de forma imprecisa.”

A Anthropic, a OpenAI, criadora do ChatGPT, e outros grandes desenvolvedores de sistemas de IA conhecidos como grandes modelos de linguagem dizem que estão trabalhando para torná-los mais verdadeiros.

Quanto tempo isso vai levar – e se eles serão bons o suficiente para, digamos, fornecer conselhos médicos com segurança – ainda está por ser visto.

“Isso não tem conserto”, disse Emily Bender, professora de linguística e diretora do Laboratório de Linguística Computacional da Universidade de Washington. “Isso é inerente à falta de correspondência entre a tecnologia e os casos de uso propostos.”

Muito está em jogo na confiabilidade da tecnologia de IA generativa. O McKinsey Global Institute projeta que ela adicionará o equivalente a US$ 2,6 trilhões a US$ 4,4 trilhões à economia global. Os chatbots são apenas uma parte dessa frenesi, que também inclui tecnologia capaz de gerar novas imagens, vídeos, músicas e códigos de computador. Quase todas as ferramentas incluem algum componente de linguagem.

O Google já está oferecendo um produto de IA para escrita de notícias para organizações de notícias, onde a precisão é fundamental. A Associated Press também está explorando o uso da tecnologia como parte de uma parceria com a OpenAI, que está pagando para usar parte do arquivo de texto da AP para melhorar seus sistemas de IA.

Em parceria com institutos de gestão hoteleira da Índia, o cientista da computação Ganesh Bagler vem trabalhando há anos para fazer com que sistemas de IA, incluindo um precursor do ChatGPT, inventem receitas de culinária do sul da Ásia, como novas versões de biryani à base de arroz. Um único ingrediente “alucinado” pode ser a diferença entre uma refeição saborosa e uma inedível.

Quando Sam Altman, CEO da OpenAI, visitou a Índia em junho, o professor do Instituto de Tecnologia de Informação Indraprastha de Delhi fez algumas perguntas pontuais.

“Acho que alucinações no ChatGPT ainda são aceitáveis, mas quando uma receita sai alucinando, isso se torna um problema sério”, disse Bagler, levantando-se em um auditório lotado do campus para falar com Altman durante a parada de Nova Delhi da turnê mundial do executivo de tecnologia dos EUA.

“Qual é a sua opinião sobre isso?” Bagler eventualmente perguntou.

Altman expressou otimismo, se não um compromisso total.

“Acredito que resolveremos o problema da alucinação em um lugar muito, muito melhor”, disse Altman. “Acredito que levará um ano e meio, dois anos. Algo assim. Mas nesse ponto, não falaremos mais sobre isso. Existe um equilíbrio entre criatividade e precisão perfeita, e o modelo precisará aprender quando você deseja um ou outro.”

Mas para alguns especialistas que estudaram a tecnologia, como a linguista Bender da Universidade de Washington, essas melhorias não serão suficientes.

Bender descreve um modelo de linguagem como um sistema para “modelar a probabilidade de diferentes sequências de formas de palavras”, dado algum dado escrito no qual foi treinado.

É assim que os corretores ortográficos conseguem detectar quando você digitou a palavra errada. Ele também ajuda a alimentar serviços de tradução e transcrição automáticas, “suavizando a saída para parecer mais com texto típico no idioma de destino”, disse Bender. Muitas pessoas contam com uma versão dessa tecnologia sempre que usam o recurso de “autocompletar” ao compor mensagens de texto ou emails.

A última safra de chatbots, como ChatGPT, Claude 2 ou Bard do Google, tentam levar isso para o próximo nível, gerando novos trechos de texto completos, mas Bender disse que eles ainda estão apenas selecionando repetidamente a palavra seguinte mais plausível em uma sequência.

Quando usados para gerar texto, os modelos de linguagem “são projetados para inventar coisas. Isso é tudo o que eles fazem”, disse Bender. Eles são bons em imitar formas de escrita, como contratos legais, roteiros de televisão ou sonetos.

“Mas como eles sempre inventam coisas, quando o texto que eles produzem acontece de ser interpretável como algo que consideramos correto, isso é por acaso”, disse Bender. “Mesmo que eles possam ser ajustados para ter razão mais vezes, eles ainda terão modos de falha – e provavelmente as falhas serão nos casos em que é mais difícil para uma pessoa ler o texto e perceber, porque são mais obscuros.”

Esses erros não são um grande problema para as empresas de marketing que têm recorrido à Jasper AI para ajudar a escrever pitches, disse o presidente da empresa, Shane Orlick.

“As alucinações são na verdade um bônus adicional”, disse Orlick. “Nós temos clientes o tempo todo que nos contam como ele teve ideias – como o Jasper criou abordagens de histórias ou ângulos que eles nunca teriam pensado por si mesmos.”

A startup com sede no Texas trabalha com parceiros como OpenAI, Anthropic, Google ou Meta, empresa-mãe do Facebook, para oferecer aos seus clientes uma variedade de modelos de linguagem de IA adaptados às suas necessidades. Para alguém preocupado com a precisão, pode oferecer o modelo da Anthropic, enquanto alguém preocupado com a segurança de seus dados proprietários pode obter um modelo diferente, disse Orlick.

Orlick disse que sabe que as alucinações não serão facilmente corrigidas. Ele confia que empresas como o Google, que segundo ele deve ter um “padrão realmente alto de conteúdo factual” para seu mecanismo de busca, dediquem muita energia e recursos para encontrar soluções.

“Acho que eles têm que resolver esse problema”, disse Orlick. “Eles têm que lidar com isso. Então, não sei se vai ser perfeito algum dia, mas provavelmente vai continuar melhorando cada vez mais ao longo do tempo.”

Os tecnóptimistas, incluindo o co-fundador da Microsoft, Bill Gates, têm previsto uma perspectiva otimista.

“Sou otimista de que, com o tempo, os modelos de IA possam ser ensinados a distinguir fatos de ficção”, disse Gates em um post de blog de julho detalhando seus pensamentos sobre os riscos sociais da IA.

Ele citou um artigo de 2022 da OpenAI como exemplo de “trabalho promissor nesse sentido”.

Mas mesmo Altman, ao promover os produtos para uma variedade de usos, não conta com os modelos para serem verdadeiros quando procura informações para si mesmo.

“Provavelmente confio nas respostas que saem do ChatGPT menos do que qualquer outra pessoa na Terra”, disse Altman para a plateia na universidade de Bagler, provocando risos.