Deepfake: para prevenção de fraudes, é preciso adotar uma abordagem multicamadas

No cenário atual, as empresas pŕecisam investir o quanto antes em soluções que conectem tecnologia, automação e inteligência

Manipulação de selfies, em que um documento verdadeiro é combinado com uma foto gerada por deepfake para burlar sistemas de reconhecimento facial (Tero Vesalainen/Bússola)
Bússola

Plataforma de conteúdo

Publicado em 18 de março de 2025 às 15h00.

*Por Paulo Ando, CPO da idwall

O avanço da tecnologia de deepfake tem gerado sérios desafios para a segurança digital. No Brasil, esse tipo de fraude tem se espalhado com rapidez: em outubro de 2024, a Polícia Civil do Distrito Federal deflagrou a operação “DeGenerative AI”, com o objetivo de desarticular uma quadrilha especializada em invasão de contas bancárias utilizando aplicativos de inteligência artificial.

Veja também

O grupo investigado realizou mais de 550 tentativas de invasão a contas bancárias de correntistas de bancos digitais, por meio de ataques coordenados, uso de dados de terceiros e de deepfake, em que, a partir do método conseguiram reproduzir a imagem dos correntistas para validar procedimentos de abertura de contas e habilitação de novos dispositivos.

A quadrilha conseguiu movimentar cerca de R$ 110.000.000 por meio de contas de PF e PJ, em atividades que sugerem Lavagem de Dinheiro — o estrago só não foi pior por conta da auditoria de  de prevenção de fraudes dos bancos, que conseguiram barrar grande parte das fraudes.

A técnica de deepfake está em constante evolução

E ela tende a crescer ainda mais: conforme pesquisa da Deloitte, é possível encontrar na deep web softwares de fraude com preços que variam de US$20 a milhares de dólares, o que mostra o poder da economia global de fraudes, termo usado pela Javelin Strategy & Research para falar desta crescente das atividades criminosas que são conduzidas em uma escala global, incluindo diversos tipos de fraudes.

Conforme o Fraud Report Financeiro, feito pela idwall, as fraudes de alta complexidade aumentaram 16% quando comparamos o primeiro trimestre de 2023 com o de 2024. Mas quando falamos em alta complexidade, quais fraudes as empresas devem ficar atentas?

Há dois tipos mais frequentes de fraudes por deepfake

1.Criação de usuários e documentos com dados sintéticos, em que fraudadores geram documentos e rostos falsificados a partir de dados reais, tornando a fraude mais convincente e difícil de detectar.

2.Manipulação de selfies, em que um documento verdadeiro é combinado com uma foto gerada por deepfake para burlar sistemas de reconhecimento facial .

Essas fraudes podem acontecer  em diversos momentos da jornada digital, como no cadastro de novos clientes, na troca de dispositivos ou de senhas, e nas solicitações de novos produtos e crédito, por exemplo.

Criar soluções eficazes de segurança digital é tão complexo quanto prevenir fraudes

Isso especialmente quando consideramos que o mercado brasileiro possui particularidades, como modelos de celulares e sistemas operacionais diversos, dispositivos móveis em uso mais antigos e uma parcela da população com acesso à internet limitado, o que dificulta a implementação de tecnologias avançadas de segurança.

Porém, mesmo em meio às adversidades, é essencial garantir um alto nível de proteção contra fraudadores que aprimoram constantemente suas técnicas; por isso, muitas empresas começaram a testar suas ferramentas utilizando alguns métodos que os fraudadores já usam, como máscaras 2D e 3D, com o objetivo de simular rostos e tentar burlar sistemas de autenticação.

Exigir certificações que asseguram que a validação biométrica usada é eficiente na detecção de deepfakes — como é o caso do selo iBeta 2 —, é primordial para as empresas adotarem uma tecnologia confiável e segura.

É necessária uma abordagem multicamadas

Para confirmar a veracidade dos dados do usuário com maior acurácia, é preciso combinar essa tecnologia com outros recursos, como documentoscopia, OCR (reconhecimento óptico de caracteres) e b ackground c heck. A integração desses recursos de validação pode impedir que um usuário seja aceito no processo de onboarding da empresa utilizando dados falsos ou documentos de outra pessoa, por exemplo.

Com o avanço das ferramentas de IA generativa e das técnicas sofisticadas que tornam as fraudes mais fáceis e baratas de serem realizadas, fraudes oriundas de deepfakes tendem a escalar ainda mais, saindo da ilegalidade e indo para o “varejo”.

Neste cenário, as empresas pŕecisam investir o quanto antes em soluções que conecte tecnologia, automação e inteligência, optando por soluções centralizadas que integrem todos os dados cadastrais, documentais e biométricos do usuário em um mesmo ambiente.

*Paulo Ando é CPO da idwall, empresa de tecnologia que disponibiliza verificação de identidade, gestão de riscos e onboarding digital.

Siga a Bússola nas redes: Instagram | Linkedin | Twitter | Facebook | Youtube

Acompanhe tudo sobre:Fraudes

Mais lidas

exame no whatsapp

Receba as notícias da Exame no seu WhatsApp

Inscreva-se

Mais de Bússola

Mais na Exame