Deepfakes são mais uma frente na guerra entre Israel e Hamas que corre o risco de desencadear ainda mais violência e confusão no futuro ‘Isso está avançando incrivelmente rápido

Deepfakes A nova batalha entre Israel e Hamas que pode acelerar violentamente o futuro - É incrível que isso esteja avançando tão rápido!

Em seu choque atordoado, Matias foi atingido pelas implicações para sua startup de tecnologia. No final do ano passado, ele havia lançado Clarity, uma empresa de inteligência artificial focada na detecção de deepfakes em campanhas eleitorais; ele acreditava que essa desinformação representava uma ameaça urgente às democracias. Mas, com cerca de 1.200 israelenses mortos em 7 de outubro e o país em guerra, essa missão teria que esperar por enquanto. Ele convocou uma reunião de emergência naquela manhã com a equipe da Clarity, para acionar um plano de ação. “Nós dissemos um ao outro, ‘Nossa tecnologia será muito significativa aqui'”, diz Matias, CEO da Clarity.

No caos que se seguiu aos massacres – os mais mortais em 75 anos de existência do país -, Israel bloqueou o fornecimento de água, comida e eletricidade para Gaza e lançou milhares de bombas no que afirmava serem alvos do Hamas no enclausurado enclave costeiro, lar de 2 milhões de palestinos. Conforme a crise humanitária se transformou em um desastre total, e mais de 10.000 palestinos foram mortos, incluindo civis, em um mês, imagens macabras inundaram as telas de TV e telefone, desencadeando espasmos de raiva e protestos tensos em todo o mundo. Esta foi uma guerra travada não apenas com munições, mas com informações – tanto reais quanto falsas. E juntamente com a indignação de ambos os lados beligerantes, algumas pessoas levantaram questões sobre se as cenas horríveis eram reais ou se as imagens eram deepfakes, criadas com a ajuda da inteligência artificial.

Na verdade, deepfakes gerados por IA têm se tornado cada vez mais difíceis de distinguir à medida que a tecnologia tem evoluído. Isso deixou startups como a Clarity lutando em “um jogo de gato e rato”, diz Matias.

A questão é: quem vencerá no final, o gato ou o rato? Alguns temem que a facilidade da tecnologia generativa permita que usuários maliciosos enganem empresas de tecnologia e governos muito menos ágeis que procuram contê-los. “Isso está avançando incrivelmente rápido”, diz Henry Ajder, consultor baseado em Cambridge, Reino Unido, em tecnologias de IA para o governo britânico e empresas como Adobe e Meta, empresa controladora do Facebook. “Como isso será daqui a 20 anos, ou 10 anos?” pergunta Ajder. “As ferramentas vão se tornar cada vez mais acessíveis. Podemos estar fundamentalmente despreparados quando vermos muitos deepfakes.”

A propaganda, diz o ditado, é tão antiga quanto a guerra. Mas desde que a OpenAI lançou a primeira versão de seu chatbot AI, o ChatGPT, no ano passado, a popularidade explosiva da inteligência artificial generativa tem potencializado a capacidade dos usuários comuns de criar suas próprias narrativas. As implicações são relativamente triviais quando envolvem o Papa Francisco em um casaco acolchoado ou Kim Kardashian como motorista de ônibus. Mas em uma guerra, deepfakes podem ser usados para semear confusão com consequências potencialmente de vida ou morte.

Dias após a Rússia invadir a Ucrânia em fevereiro de 2022, desencadeando a maior guerra terrestre da Europa em gerações, o presidente ucraniano Volodymyr Zelensky apareceu no Facebook, dizendo a seus soldados para renderem-se. No Twitter dias depois, o presidente russo Vladimir Putin também ordenou que suas forças depusessem as armas. Maneirismos nervosos e imagens desfocadas rapidamente expuseram ambos os vídeos como falsos. Mas isso sinalizou o que poderia acontecer um dia, quando as ferramentas de IA melhorarem.

Agora esse dia chegou, com ferramentas de IA generativa facilmente acessíveis, seja em um escritório governamental ou em casa. A tecnologia liberou uma série de conteúdos manipulados que anteriormente exigiam habilidades técnicas para serem produzidos. Na guerra de Israel, isso veio de todas as direções, de acordo com Layla Mashkoor do Digital Forensic Research Lab do Atlantic Council, parte de um think tank estadunidense que acompanha de perto as redes sociais no conflito. Pessoas de ambos os lados espalharam deepfakes, diz ela, citando uma conta pró-Israel no Instagram que apresentava uma imagem manipulada por IA de multidões de israelenses aplaudindo soldados de suas varandas. Para muitas pessoas, o tsunami de informações passando pelas telas dos telefones tornou tudo parecer pouco confiável. “Mesmo para imagens autênticas, há uma contra-alegação, então é muito difícil para as pessoas terem clareza”, diz Mashkoor.

Quando Matias escolheu o nome Clarity para sua startup de IA, foi exatamente esse problema que ele pretendia resolver. Com o surto de guerra, a equipe entrou em ação. À medida que centenas de vídeos e fotografias inundavam a internet, alguns gravados pelo Hamas durante seu ataque, ou por moradores de Gaza em bairros devastados, organizações de mídia internacionais começaram a enviar e-mails para Clarity em busca de ajuda para filtrar deepfakes, segundo Matias, que se recusou a deixar ANBLE revelar seus clientes.

A guerra gerou uma infinidade de falsidades online: a modelo Bella Hadid pedindo desculpas por seus sentimentos pró-palestinos foi, na verdade, um áudio sintetizado. A Rainha Rania, da Jordânia, dizendo que seu país estava “ao lado de Israel”, foi um áudio gerado por IA adicionado a uma aparição que ela havia feito na CNN. Um vídeo do Hamas supostamente mostrando seus combatentes destruindo um tanque israelense era, na realidade, da guerra da Ucrânia. E outro vídeo, mostrando o Hamas abatendo dois helicópteros israelenses? Aquilo foi retirado do jogo de vídeo Arma 3.

A Clarity, sediada em Palo Alto, Califórnia, e Tel Aviv, também se associou às agências de inteligência israelenses na guerra para detectar quais imagens de guerra são reais ou falsas. Quase toda a equipe da Clarity, incluindo Matias, passou anos aperfeiçoando suas habilidades nas unidades de tecnologia de elite das Forças de Defesa de Israel durante o serviço militar obrigatório. Matias serviu na unidade de inteligência hiperseletiva conhecida como 8200, cujos membros lançaram inúmeras startups globais após o serviço militar.

Com essa origem, Matias contou com uma rede de fundadores experientes tanto para obter conselhos quanto para capital. “A Clarity está inovando em uma nova fronteira”, diz Udi Mokady, um investidor-anjo na Clarity – e outro veterano do 8200 – que fundou a CyberArk, uma empresa de segurança de identidade. Agora presidente executivo da CyberArk, Mokady prevê que o mercado de detecção de deepfake aumentará rapidamente. “A conscientização cresceu dramaticamente da noite para o dia com o ChatGPT”, diz ele, “onde as pessoas podem criar deepfakes em suas casas”.

Em vez de certificar o conteúdo como totalmente verdadeiro ou totalmente falso, a Clarity usa IA para rastrear uma série de pontos de dados em um vídeo, como as tiques faciais de uma pessoa ou a cadência de sua voz, e depois usa redes neurais para colocá-los em uma escala de certeza mostrada em um painel, do verde ao vermelho. “É IA contra IA”, diz Matias. Alguns vídeos, como o que mostra o líder da organização Hezbollah, apoiada pelo Irã, condenando os ataques de 7 de outubro, são claramente deepfakes (“infelizmente”, brinca Matias). Mas outros vídeos não são tão claros e exigem julgamento humano, em vez de máquinas treinadas por IA.

A Clarity não está sozinha em sua luta contra deepfakes. Várias outras startups semelhantes foram lançadas nos últimos anos, incluindo a Reality Defender em Nova York e a Sentinel na Estônia. As grandes empresas de tecnologia também estão focadas na falsidade: a partir de janeiro, a Meta exigirá que campanhas políticas sinalizem qualquer conteúdo gerado por IA em anúncios do Facebook, enquanto o Google agora inclui dados sobre as origens das imagens.

Os governos também estão tentando combater deepfakes. Em outubro, o presidente Joe Biden emitiu uma ordem executiva sobre IA “segura, confiável e confiável”, que delegou ao Departamento de Comércio a tarefa de encontrar maneiras de autenticar o conteúdo como real e marcar a mídia criada com IA. Mas a ordem não veio com ameaças de sanções para aqueles que violarem as regras.

No mesmo mês, autoridades concordaram em adotar medidas semelhantes durante uma cúpula sobre IA do Reino Unido com 28 países, incluindo a China. E na União Europeia de 27 nações, onde um Ato de IA que imporia padrões de segurança e financiaria startups está seguindo seu curso através de um processo labiríntico, as principais autoridades querem impor multas gigantescas às plataformas de mídia social que não conseguirem combater a desinformação.

“A crescente consenso é que a IA oferece riscos catastróficos”, diz Ajder, consultor de IA no Reino Unido. “Eles querem evitar uma situação em que o Velho Oeste que vimos nos últimos 18 meses seja perpetuado, de uma maneira em que as apostas só aumentem cada vez mais.”

As apostas dificilmente poderiam ser mais altas do que na feroz guerra de Israel contra Gaza, com navios de guerra dos EUA posicionados perto da costa e o Irã e o Líbano prontos para uma possível batalha. A Clarity vem lidando com as implicações ao longo de semanas de guerra, enquanto a equipe analisa centenas de vídeos e fotos angustiantes.

O efeito de assistir a vídeos frequentemente aterrorizantes na pequena equipe da Clarity é bastante claro, e Matias diz que certamente precisarão de terapia pós-traumática depois que a guerra acabar. “Sabíamos que estávamos entrando em uma guerra altamente personalizada”, diz ele, acrescentando que o trabalho deixou sua equipe com “uma carga emocional profunda e um senso incrível de importância”.


Força investigativa

À medida que deepfakes se proliferam, tanto gigantes corporativos quanto startups têm corrido para detectá-los. Estas são algumas das empresas envolvidas:

DeepMediaLançada em 2017 por graduados em IA da Universidade de Stanford e da Universidade de Yale. Sediada em Oakland, ela trabalha com o Departamento de Defesa dos EUA, as Nações Unidas e empresas de tecnologia para identificar conteúdo falso, usando processamento de rede neural.

Reality DefenderUma empresa com sede em Manhattan fundada em 2021 pelo ex-executivo do Goldman Sachs, Ben Colman, que diz ser crucial interromper um deepfake antes que ele se torne viral. A empresa captou US$ 15 milhões em uma rodada de financiamento em outubro e pretende lançar novas ferramentas que possam detectar vozes fabricadas em tempo real.

IntelIntroduziu um detector de deepfakes, o FakeCatcher, em 2022, que afirma poder analisar vídeos em tempo real e fornecer resultados precisos de 96% em milissegundos. Uma ferramenta rara é a análise do fluxo sanguíneo nos pixels, avaliando se a imagem retrata uma pessoa real.

Uma versão deste artigo aparece na edição de dezembro de 2023/janeiro de 2024 da ANBLE com o título “Indo à guerra contra deepfakes”.