A inteligência artificial está arruinando a internet

A IA está arruinando a internet.

Ao fazer login no HBO Max no final de maio, as pessoas perceberam algo estranho. Normalmente, quando alguém faz login no site, a HBO pede que verifique se é um humano resolvendo um captcha – você sabe, a caixa de seleção “Eu não sou um robô” ou as grades de imagens “selecione todas as praças com semáforos” que provam para o site que você é, de fato, um humano.

Mas desta vez, quando os usuários fizeram login, foram solicitados a resolver uma série complexa de quebra-cabeças. As tarefas bizarras variavam desde somar os pontos em imagens de dados até ouvir trechos curtos de áudio e selecionar o trecho que continha um padrão sonoro repetitivo. Essas estranhas novas tarefas, supostamente para provar que os usuários eram humanos, não se limitaram à HBO: em várias plataformas, os usuários foram confundidos por quebra-cabeças cada vez mais impossíveis, como identificar objetos – como um cavalo feito de nuvens – que não existem.

O motivo por trás dessas novas barreiras? IA aprimorada. Como as empresas de tecnologia treinaram seus bots nos captchas antigos, esses programas agora são tão capazes que podem facilmente vencer os desafios típicos. Como resultado, nós, seres humanos, precisamos nos esforçar mais para provar nossa humanidade apenas para acessar a internet. Mas os captchas que nos deixam coçando a cabeça são apenas a ponta do iceberg quando se trata de como a IA está reescrevendo a mecânica da internet.

Desde a chegada do ChatGPT no ano passado, as empresas de tecnologia têm corrido para incorporar a tecnologia de IA por trás dele. Em muitos casos, as empresas têm abandonado seus produtos principais de longa data para fazer isso. A facilidade de produzir texto e visuais aparentemente autoritativos com um clique de um botão ameaça erodir as frágeis instituições da internet e tornar a navegação na web um pântano de confusão. À medida que a febre da IA se espalha pela web, os pesquisadores descobriram como ela pode ser usada como arma para agravar algumas das preocupações mais urgentes da internet – como desinformação e privacidade -, ao mesmo tempo em que torna a simples experiência cotidiana de estar online – desde excluir spam até fazer login em sites – mais irritante do que já é.

“Não estou dizendo que nossa incapacidade de controlar a IA levará ao colapso da sociedade”, disse Christian Selig, criador do Apollo, um aplicativo popular do Reddit, “mas acho que certamente tem o potencial de afetar profundamente a internet.”

E, até agora, a IA está transformando a internet em um pesadelo.

Disrupção na internet

Por quase 20 anos, o Reddit tem sido a página inicial não oficial da internet e essa longevidade se deve em grande parte aos voluntários que moderam suas várias comunidades. De acordo com uma estimativa, os moderadores do Reddit fazem um trabalho não remunerado no valor de US$ 3,4 milhões por ano. Para fazer isso, eles contam com ferramentas como o Apollo, um aplicativo com quase uma década que oferece ferramentas avançadas de moderação. Mas em junho, os usuários foram recebidos com uma mensagem incomum: o Apollo estava encerrando suas atividades. Na tentativa da empresa de entrar na corrida do ouro da IA, os aplicativos de terceiros foram sacrificados.

O Apollo e outras interfaces semelhantes dependem do acesso à interface de programação de aplicativos (API) do Reddit, um software que ajuda os aplicativos a trocar dados. No passado, o Reddit permitia que qualquer pessoa coletasse seus dados gratuitamente – quanto mais ferramentas o Reddit permitia, mais usuários ele atraía, o que ajudava o aplicativo a crescer. Mas agora, empresas de IA começaram a usar o Reddit e sua vasta reserva de interação humana online para treinar seus modelos. Na tentativa de lucrar com esse interesse repentino, o Reddit anunciou novos preços caros para acesso aos seus dados. O Apollo e outros aplicativos se tornaram vítimas colaterais, provocando um mês de protestos e agitação da comunidade do Reddit. A empresa se recusou a recuar, mesmo que isso significasse alienar as comunidades de pessoas que compõem sua essência.

Um relatório da Europol espera que 90% do conteúdo da internet seja gerado por IA em alguns anos.

À medida que os “caçadores de dados” minam a qualidade de sites antes confiáveis, uma enxurrada de conteúdo questionável gerado por IA está se espalhando pelas páginas da web. Martijn Pieters, um engenheiro de software com sede em Cambridge, testemunhou recentemente o declínio do Stack Overflow, o site de referência da internet para perguntas e respostas técnicas. Ele contribuiu e moderou na plataforma por mais de uma década quando ela sofreu uma queda repentina em junho. A empresa por trás do site, Prosus, decidiu permitir respostas geradas por IA e começou a cobrar das empresas de IA pelo acesso aos seus dados. Em resposta, os principais moderadores entraram em greve, argumentando que o conteúdo gerado por IA de baixa qualidade ia contra o propósito do site: “Ser um repositório de perguntas e respostas de alta qualidade”.

NewsGuard, uma empresa que rastreia desinformação e avalia a credibilidade de sites de informação, descobriu cerca de 350 veículos de notícias online que são quase inteiramente gerados por IA com pouca ou nenhuma supervisão humana. Sites como Biz Breaking News e Market News Reports produzem artigos genéricos abrangendo uma variedade de assuntos, incluindo política, tecnologia, economia e viagens. Muitos desses artigos estão repletos de afirmações não verificadas, teorias conspiratórias e hoaxes. Quando a NewsGuard testou o modelo de IA por trás do ChatGPT para avaliar sua tendência a espalhar narrativas falsas, ele falhou 100 de 100 vezes.

A IA frequentemente alucina respostas para perguntas e, a menos que os modelos de IA sejam ajustados e protegidos com salvaguardas, Gordon Crovitz, co-CEO da NewsGuard, me disse que “eles serão a maior fonte de desinformação persuasiva em escala na história da internet”. Um relatório da Europol, a agência de aplicação da lei da União Europeia, espera que impressionantes 90% do conteúdo da internet sejam gerados por IA em alguns anos.

Embora esses sites de notícias gerados por IA ainda não tenham uma audiência significativa, seu rápido crescimento é um precursor de como o conteúdo gerado por IA distorcerá facilmente as informações nas redes sociais. Em sua pesquisa, Filippo Menczer, professor de ciência da computação e diretor do Observatório de Mídias Sociais da Universidade de Indiana, já encontrou redes de bots que estão postando grandes volumes de conteúdo gerado pelo ChatGPT em sites de mídia social como X (anteriormente Twitter) e Facebook. E embora os bots de IA tenham sinais reveladores agora, especialistas indicam que em breve eles se tornarão melhores em imitar humanos e evadir os sistemas de detecção desenvolvidos por Menczer e redes sociais.

Embora sites operados por usuários, como Reddit e plataformas de mídia social, estejam sempre lutando contra atores mal-intencionados, as pessoas também estão perdendo um local crucial para verificar informações: os motores de busca. A Microsoft e o Google em breve vão ocultar links tradicionais de resultados de pesquisa em favor de resumos criados por bots que não estão preparados para distinguir fatos de ficção. Quando pesquisamos uma pergunta no Google, não apenas obtemos a resposta, mas também como ela se encaixa no contexto mais amplo do que está na internet. Filtramos esses resultados e então escolhemos as fontes em que confiamos. Um mecanismo de busca alimentado por chatbot corta essas experiências, retira o contexto como os endereços dos sites e pode “imitar” uma resposta plagiada, que, segundo Crovitz, da NewsGuard, soa “autoritária, bem escrita”, mas é “totalmente falsa”.

O conteúdo sintético também inundou plataformas de comércio eletrônico como Amazon e Etsy. Duas semanas antes de um livro técnico de Christopher Cowell, um engenheiro de currículo de Portland, Oregon, ser publicado, ele descobriu um livro recém-listado com o mesmo título na Amazon. Cowell logo percebeu que era gerado por IA e que o editor por trás dele provavelmente pegou o título da lista de pré-lançamento da Amazon e o alimentou em software como o ChatGPT. Da mesma forma, no Etsy, uma plataforma conhecida por seu catálogo artesanal e artesanal, arte, canecas e livros gerados por IA agora são comuns.

Em outras palavras, será cada vez mais difícil distinguir o que é real do que não é online. Embora a desinformação seja há muito tempo um problema da internet, a IA vai superar nossos antigos problemas.

Uma bonança para golpes

No curto prazo, o surgimento da IA trará uma série de desafios tangíveis de segurança e privacidade. Golpes online, que vêm aumentando desde novembro, serão mais difíceis de detectar porque a IA os tornará mais fáceis de adaptar a cada alvo. Pesquisas conduzidas por John Licato, professor de ciência da computação da Universidade da Flórida do Sul, descobriram que é possível engenhar golpes com precisão, levando em consideração as preferências e tendências comportamentais de cada indivíduo com base em poucas informações públicas de sites e perfis de mídia social.

Um dos principais sinais reveladores de golpes de phishing de alto risco – um tipo de ataque em que o invasor se faz passar por uma entidade confiável, como seu banco, para roubar informações sensíveis – é que o texto frequentemente contém erros ortográficos ou os gráficos não são tão refinados e claros como deveriam ser. Mas esses sinais não existirão em uma rede de fraude alimentada por IA, com hackers transformando geradores de texto para imagem e texto gratuitos, como o ChatGPT, em poderosos motores de spam. A IA generativa pode ser usada para colocar sua foto de perfil em uma campanha de e-mail personalizada de uma marca ou produzir uma mensagem de vídeo de um político com uma voz artificialmente reeditada, falando exclusivamente sobre os tópicos que você se interessa.

A internet vai parecer cada vez mais que é projetada para as máquinas e pelas máquinas.

E isso já está acontecendo: dados de uma empresa de cibersegurança, Darktrace, detectaram um aumento de 135% em campanhas cibernéticas maliciosas desde o início de 2023 e revelaram que criminosos estão cada vez mais recorrendo a bots para escrever e-mails de phishing com mensagens mais longas e sem erros, que são menos propensas a serem capturadas pelos filtros de spam.

E em breve os hackers podem não ter que passar por muitos problemas para obter suas informações sensíveis. Atualmente, os hackers frequentemente recorrem a uma série de métodos indiretos para espionar você, incluindo rastreadores ocultos dentro de sites e a compra de grandes conjuntos de dados comprometidos na dark web. Mas pesquisadores de segurança descobriram que os bots de IA em seus aplicativos e dispositivos podem roubar informações sensíveis para os hackers. Como os modelos de IA da OpenAI e do Google rastreiam ativamente a web, os hackers podem esconder códigos maliciosos – um conjunto de instruções para o bot – dentro de sites e fazer com que os bots executem esses códigos sem intervenção humana.

Digamos que você esteja usando o Microsoft Edge, um navegador que vem com o chatbot de IA do Bing. Como o chatbot está constantemente lendo as páginas que você visita, ele pode pegar um código malicioso escondido em um site que você visita. O código poderia pedir ao Bing AI para se passar por um funcionário da Microsoft, oferecer a você uma nova oferta para usar o Microsoft Office de graça e pedir os detalhes do seu cartão de crédito. Foi assim que um especialista em segurança conseguiu enganar o Bing AI. Florian Tramèr, professor assistente de ciência da computação na ETH Zürich, considera esses ataques de “injeção de prompt” preocupantes, especialmente considerando que os assistentes de IA estão sendo incorporados em todos os tipos de aplicativos, como caixas de entrada de e-mail, navegadores, softwares de escritório e muito mais, e, portanto, podem acessar facilmente os dados.

“Algo como um assistente de IA inteligente que gerencia seu e-mail, calendário, compras, etc., simplesmente não é viável no momento por causa desses riscos”, disse Tramèr.

‘Internet morta’

À medida que a IA continua a causar estragos em iniciativas comunitárias como a Wikipedia e o Reddit, a internet vai parecer cada vez mais que foi projetada para as máquinas e pelas máquinas. Isso poderá quebrar a web a que estamos acostumados agora, disse Toby Walsh, professor de inteligência artificial na University of New South Wales. Também tornará as coisas difíceis para os criadores de IA. À medida que o conteúdo gerado por IA substitui o trabalho humano, empresas de tecnologia como a Microsoft e o Google terão menos dados originais para melhorar seus modelos.

“A IA funciona hoje porque é treinada com o esforço e a criatividade dos seres humanos”, disse Walsh. “Se a IA generativa de segunda geração for treinada com base no excedente da primeira geração, a qualidade cairá drasticamente”. No início deste ano, em maio, um estudo da University of Oxford descobriu que treinar IA com dados gerados por outros sistemas de IA faz com que ela se degrade e, eventualmente, colapse. E à medida que isso acontece, a qualidade das informações encontradas online também será afetada.

Licato, professor da University of South Florida, compara o estado atual da experiência na web à teoria da “internet morta”. À medida que os sites mais visitados da internet, como o Reddit, se tornam inundados de artigos e comentários escritos por bots, as empresas implantarão contra-bots adicionais para ler e filtrar o conteúdo automatizado. Eventualmente, segundo a teoria, a maior parte da criação e consumo de conteúdo na internet não será mais feita por seres humanos.

“É algo estranho de se imaginar, mas parece cada vez mais provável com a direção que as coisas estão tomando”, disse Licato.

Não posso deixar de concordar. Nos últimos meses, os lugares que costumava frequentar online estão inundados de conteúdo e rostos gerados por IA ou estão tão ocupados em acompanhar as atualizações de IA de seus concorrentes que prejudicaram seus serviços principais. Se continuar assim, a internet nunca mais será a mesma.


Shubham Agarwal é um jornalista de tecnologia freelancer de Ahmedabad, Índia, cujo trabalho já foi publicado na Wired, The Verge, Fast Company e outros.