42% do tráfego na web são bots
Relatório revela que 65% dos bots são maliciosos, afetando principalmente o setor de e-commerce
Um relatório recente da empresa de serviços de nuvem e segurança Akamai Technologies revelou que 42% de todo o tráfego da web é gerado por bots, programas automatizados que simulam a atividade humana. O dado alarmante é que cerca de 65% desses bots são maliciosos, causando prejuízos e dores de cabeça para empresas, principalmente do setor de e-commerce.
Intitulado “State of the Internet (SOTI)”, o estudo destaca o impacto negativo dos chamados “web scrapers”. Essas ferramentas automatizadas coletam dados de sites, muitas vezes com o intuito de espionar a concorrência, roubar informações de produtos, criar sites falsos (phishing) ou prejudicar o desempenho de páginas.
O relatório aponta o e-commerce como o setor mais afetado pelo tráfego malicioso de bots. Isso porque as lojas virtuais dependem de aplicativos web para gerar receita, tornando-se alvos fáceis para ataques automatizados.
Apesar de existirem bots benéficos utilizados por empresas para fins legítimos, a dificuldade em diferenciar bots “bons” dos “maus” é um desafio para as organizações. Além disso, a evolução da inteligência artificial (IA) torna esses programas ainda mais sofisticados, exigindo novas estratégias de segurança.
“Toda empresa com uma loja virtual depende, em certa medida, de web scrapers. O problema surge quando esses bots são usados de forma maliciosa. Suas funções semelhantes dificultam a distinção entre os benéficos e os maliciosos. Isso é agravado pelo cenário em constante mudança dos scrapers, tornando ineficazes as defesas tradicionais, como firewalls”, explica Reuben Koh, diretor de tecnologia e estratégia de segurança da Akamai, no relatório.
Para Koh, o investimento em soluções de segurança cibernética é crucial para o e-commerce, especialmente na região da Ásia-Pacífico e Japão (APJ), que é um centro global de comércio. É preciso se adaptar e acompanhar os ataques imprevisíveis e iterativos realizados por bots maliciosos. Isso é ainda mais importante para empresas que buscam regionalizar e expandir sua base de clientes, expondo-se a novas ameaças.
O relatório “State of the Internet” destaca alguns dos perigos representados pelos bots maliciosos:
- Bots com IA: capazes de encontrar e coletar dados não estruturados, como descrições e imagens de produtos, para criar lojas online falsas ou sites de phishing destinados a roubar credenciais ou dados bancários.
- Abertura fraudulenta de contas: os bots podem ser usados para automatizar a criação de contas falsas, o que, segundo pesquisas recentes, representa até 50% dos prejuízos com fraudes online.
- Prejuízos técnicos: a ação de bots, independentemente da intenção, pode sobrecarregar sites, afetar métricas de tráfego, aumentar custos de processamento e expor a empresa a ataques de phishing.
A Imperva vai ainda mais além. No relatório “2024 Bad Bot Report”, a empresa de cibersegurança afirma ter detectado que 49,4% do tráfego online é de bots (32% deles são maliciosos), enquanto apenas 50,6% são humanos navegando na internet e acessando serviços digitais. Com um crescimento médio de 5% ao ano no tráfego “não-humano”, 2024 pode ser o primeiro ano em que robôs serão a principal fonte de tráfego na internet, ironicamente corroborando a Teoria da Internet Morta, uma teoria da conspiração criada em fóruns anônimos que afirma que a maioria do tráfego e da criação de conteúdo na internet atualmente consiste apenas em atividades automatizadas por robôs.
Outra pesquisa da Akamai, publicada em março, revela que 29% dos ataques na web são direcionados a APIs, sendo o comércio o setor mais visado – com 44% desses ataques. A exploração das APIs é uma preocupação crescente, já que elas são essenciais para o funcionamento e integração de apps e serviços, ao mesmo tempo, oferecem novas oportunidades para cibercriminosos.
O relatório Scraping Away Your Bottom-Line [.PDF, em Inglês] oferece estratégias de mitigação contra bots “raspadores” e apresenta um estudo de caso que mostra como os sites operam de forma muito mais rápida e eficiente após a implementação de defesas contra esses programas automatizados. A pesquisa também aborda questões de conformidade que devem ser levadas em consideração diante do aumento desses ataques cibernéticos.