banner

blog

Oct 26, 2023

IA de combate

Em 2022, os bancos dos EUA processaram mais de US$ 448 bilhões em transações ponto a ponto (P2P), tornando essas plataformas um alvo principal para golpistas. Como é o caso dos paradigmas de fraude "clássicos", como phishing, a fraude Zelle ou Venmo está sendo cada vez mais alimentada pela inteligência artificial (IA).À medida que os cibercriminosos aproveitam o poder do aprendizado de máquina (e em breve) IA generativa para superar os sistemas de detecção de fraudes, as tecnologias de prevenção de fraudes online devem evoluir de acordo.

O ritmo acelerado da transformação digital beneficiou imensamente nossa sociedade e economia. Também tem sido um grande benefício para os cibercriminosos, que, como as empresas que visam, usam a infraestrutura de nuvem todos os dias para escalar suas operações. Aproveitando o poder da nuvem, novos modelos de aprendizado de máquina (ML) maliciosos oferecem a perspectiva de automatizar tarefas que apenas humanos poderiam realizar alguns anos atrás.

Como resultado, a próxima onda de inovação em fraude apresenta IA baseada em nuvem – ou mais corretamente, ML, efetivamente tornando a prevenção de fraude moderna uma "batalha das máquinas". Essas batalhas geralmente começam com os fraudadores dando o primeiro passo, usando serviços de nuvem para criar modelos de ML capazes de contornar as defesas construídas pelas empresas para detectar fraudes óbvias.

Considere um sistema típico de mitigação de fraude em um ambiente de varejo. Digamos que uma empresa estabeleça uma regra que, em determinados locais, as transações acima de US$ 900 sejam sinalizadas automaticamente para verificação secundária. Uma ferramenta de ML pode ser programada para calcular por tentativa e erro o ponto em que as transações de alto valor são inspecionadas. Em seguida, o adversário precisa apenas garantir que suas transações fraudulentas permaneçam abaixo de US$ 900 e sejam baseadas na geolocalização correta para evitar a detecção. O que antes era um processo demorado torna-se uma simples questão de análise baseada em nuvem.

Mesmo modelos sofisticados de ML podem ser investigados e atacados por pontos fracos por IA maliciosa. Quanto mais opacos os sistemas de IA se tornam, mais arriscados são para implantar em ambientes de produção. Os humanos terão apenas uma compreensão limitada de seu comportamento e das saídas que podem gerar. Além disso, para permanecerem eficazes, eles precisam ser treinados com dados de ataques anteriores. Essa combinação os torna vulneráveis ​​à exploração quando apresentados a um cenário ligeiramente diferente. Leva apenas algum teste direcionado e melhoria para a IA maliciosa aprender esses descuidos e pontos cegos.

Isso não é tudo. A IA também pode gerar dados de imagem falsos do rosto de um usuário que são atraentes o suficiente para permitir que uma transação prossiga, já que o computador de verificação assume que é uma foto de um novo usuário. Ou pode ser treinado com dados públicos de vídeo ou áudio (por exemplo, clipes postados em mídias sociais) para representar clientes legítimos em verificações de autenticação. Da mesma forma, a IA pode ser treinada para imitar o comportamento humano, como movimentos do mouse, para enganar máquinas projetadas para detectar sinais de atividade não humana em transações. Ele pode até mesmo gerar diferentes combinações de dados roubados para ignorar as verificações de validação – uma tarefa de computação intensiva que pode ser resolvida usando a nuvem pública.

Os cibercriminosos costumam ter uma vantagem sobre os defensores, e esse é atualmente o caso dos fraudadores online que utilizam a IA. Eles têm o elemento surpresa e a motivação financeira para o sucesso. No entanto, as equipes de fraude e risco podem combater a IA maliciosa aprimorando suas próprias abordagens. A IA pode ser treinada pelos bandidos para imitar o comportamento humano de forma mais realista. Mas se for usado em ataques automatizados, ainda precisará ser implantado como um bot, que pode ser detectado ajustando e inovando algoritmos de detecção de fraude.

Os defensores não apenas podem reforçar sua defesa implantando algoritmos de ML novos e aprimorados, mas também podem mudar o campo de batalha para um que lhes proporcione uma vantagem estratégica. Por exemplo, ao deslocar a detecção de fraude para a borda da rede, muito mais perto dos dispositivos usados ​​para fazer transações online, os defensores criam uma dinâmica em que comportamentos incomuns ou de alto risco são mais fáceis de detectar com maior grau de precisão.

COMPARTILHAR