O que é tráfego de bot e como ele é usado para fraudar relatórios de tráfego?
Publicados: 2023-05-16Um aumento nas visitas ao site pode causar lentidão no site, degradação do desempenho, sobrecarga de recursos, visitas corrompidas, estatísticas de cliques, impacto negativo no SEO e aumento da vulnerabilidade a ataques DDoS e phishing.

Se você deseja analisar o tráfego para seu site, procure no contador o salto nas visualizações de páginas específicas, alta taxa de rejeição, tempo extraordinariamente longo ou curto na página, conversões inválidas ou ausentes e referências em massa em regiões que você não conhece. anunciar.
Que proporção do tráfego da Internet é gerada por bots? As estimativas variam. No entanto, podemos supor que as referências de bot representam cerca de 42% de todo o tráfego global da web, mais da metade dos quais pertence a bots “ruins”.
O que é tráfego de bot?
Os robôs sempre visitam o site — é apenas parte da Internet moderna e até mesmo os mecanismos de pesquisa indexam recursos dessa maneira. Mas com a ajuda de bots (ou scanners automáticos), você também pode analisar dados, ou seja, extrair informações de recursos da web. O bot envolvido nisso é um programa ou script que executa ações automatizadas simples no site:
- Descarregando o código da página.
- Dividindo-o em seus elementos constitutivos.
- Extraindo dados.
- Salvando-o no banco de dados.
As finalidades dessa coleção podem ser diferentes. Na maioria dos casos, os sites são raspados para obter dados específicos das páginas dos concorrentes, que podem ser usados em seus recursos e realizar ataques maliciosos. Ainda assim, a análise é útil para fins analíticos ou de pesquisa, o que por si só não implica nada terrível.
Bots bons, ruins e feios
Antes de mergulharmos no tópico de como identificar o tráfego de bots, devemos aprender a classificação. Podemos dividir os bots em úteis (bons) e maliciosos (ruins).
bots úteis
Esses são os robôs de que precisamos. Eles realizam atividades necessárias na Internet. Eles ajudam a realizar um trabalho valioso e complexo no menor tempo possível. Além disso, ao contrário de uma pessoa, eles automatizam processos rotineiros, pois podem processar grandes quantidades de dados.
Pesquisar robôs
- Você também pode conhecê-los como “web spiders” ou “search crawlers”. Eles são um dos bots mais comuns – e mais úteis – da Internet. Todos os resultados da pesquisa e a interação do usuário com a pesquisa são méritos dos robôs de pesquisa. Quando uma nova página do site é publicada, um bot a verifica dentro de algumas semanas. Ferramentas de SEO como SEMRush, Screaming Frog, SE Ranking, Moz, etc., também possuem robôs para analisar resultados de busca e recursos para otimizá-los de forma mais eficaz.
Bots de qualificação de site
- Ao contrário dos robôs de busca que indexam sites em nível global, esses bots são uma ferramenta para avaliar o desempenho de um determinado recurso. Se a ajuda tiver várias páginas ou for grande, essas verificações são necessárias. Eles permitem que o proprietário do site o melhore de acordo com as necessidades dos usuários. Por exemplo, eles podem identificar e corrigir rapidamente o tempo de carregamento da página, problemas de desempenho, links quebrados e imagens subotimizadas.
Bots verificando violação de direitos autorais
- Esses bots controlam a aplicação de direitos autorais nas principais hospedagens de vídeo e redes sociais, como YouTube e TikTok. Com a ajuda de um software especial, esses robôs analisam grandes quantidades de dados de áudio e vídeo para a presença de formas e padrões específicos que correspondem a materiais protegidos por direitos autorais e estão localizados no banco de dados de hospedagem. Apesar da eficácia inegável desses robôs, muitos especialistas e usuários comuns concordam que os bots geram um nível inaceitavelmente alto de falsos positivos e punem injustamente os autores cujo conteúdo tem pouca semelhança com materiais protegidos por direitos autorais.
bots maliciosos
Infelizmente, para cada bot “bom” para melhorar a Internet, haverá um bot malicioso para fazer algo menos valioso. Por exemplo, para enganar o tráfego de publicidade de bots. Vamos ver o que são os robôs “ruins”.
Bots de clique de anúncio
- Eles representam um desafio significativo para a publicidade digital. Eles clicam em anúncios contextuais na pesquisa. Eles desperdiçam orçamentos de publicidade e causam estragos em campanhas de marketing. Cada vez mais, você pode encontrar bots que podem imitar o comportamento de usuários reais, ocultando assim sua atividade maliciosa. Por exemplo, podem percorrer as páginas do site, segui-las aleatoriamente, permanecer na página por mais de um segundo, etc.
Bots para ataques DDoS
- Denial-of-Service (DoS) é um ataque de negação de serviço cujo objetivo é desacelerar um recurso ou desativá-lo por um tempo específico. O tráfego de bot de streaming direcionado sobrecarrega o servidor e para de responder às solicitações de usuários reais. Como resultado, o site fica indisponível. Distributed-Denial-of-Service (DDoS) é um ataque distribuído de negação de serviço de vários dispositivos e redes. Esse recurso torna muito mais difícil bloquear ataques de bots no site. Os bots DDoS normalmente se espalham por meio de uma botnet, uma rede de dispositivos de usuários infectados por malware. O usuário pode instalar malware acidentalmente ou visitar um site fraudulento. Assim, seu dispositivo se torna parte da botnet e realiza automaticamente ataques direcionados pelo operador.
Bots de Comprador
- Eles são projetados para ataques de falta de estoque em lojas online. O conceito é simples: os bots adicionam certos itens de alta demanda ao carrinho e os mantêm lá sem finalizar a compra. Assim, o número de produtos em estoque é reduzido automaticamente. Eles fazem isso até que o produto “esgote”. Então, compradores genuínos veem que o produto está esgotado e saem do site. Um produto do catálogo é vinculado a uma cesta específica apenas por um curto período de tempo (geralmente de 10 a 15 minutos). Mas quando um catálogo é submetido a um longo ataque automático, é fácil para os bots tornarem o produto indisponível para os compradores.
Essas são apenas algumas atividades maliciosas que os serviços de bloqueio de bots, como o Botfaqtor, encontram diariamente.
Quem precisa de tráfego de bot orgânico
Existem muitas opções nas quais os profissionais de marketing e SEOs precisam de tráfego adicional. No entanto, quase todos eles estão no plano do marketing de afiliados.
Sites de compra e venda
Vender sites é um grande negócio. Como na vida real, os imóveis digitais comerciais vêm em todas as formas, tamanhos e condições. Aqueles dispostos a gastar tempo e dinheiro para “arrumar” um recurso ou negócio on-line para posterior venda ou monetização estão ganhando muito dinheiro.

Se o site tiver muitos visitantes, você pode demonstrar a um comprador em potencial quais benefícios ele pode obter colocando conteúdo publicitário nele. Assim, do ponto de vista do vendedor, a tentação de aumentar artificialmente os números do tráfego com a ajuda de bots é poderosa.

Vendedores de chapéu preto
Apesar das afirmações categóricas de mecanismos de pesquisa como o Google de que “o tráfego do site não é um fator de classificação”, muitos especialistas associam erroneamente alto tráfego a altas posições nos resultados de pesquisa.
Consequentemente, muitos “especialistas” em promoção (e clientes) ainda estão dispostos a pagar muito dinheiro pelo tráfego orgânico de bots. É utilizada a tecnologia de bombardeio de mecanismos de busca, na qual um site irrelevante é exibido nos resultados de busca sob demanda, nos quais não há ocorrências das palavras-chave pesquisadas. Eles acreditarão erroneamente que suas classificações e posições crescerão dessa maneira.
Comerciantes e agências desonestos
Infelizmente, a prática injusta de aumentar os visitantes do site com tráfego de bots ainda está viva e bem em 2023. Qualquer um que entenda um pouco sobre marketing digital sabe que o tráfego como tal é um indicador projetado para divertir o ego e nada mais.
Se nenhum dos visitantes que clicaram no anúncio concluísse a ação direcionada, o aumento de visitantes não beneficiaria a empresa. No entanto, muitos empresários não têm tempo para aprender todos os meandros do marketing.
Mesmo quando a verdade sobre o tráfego inflado se torna aparente, um profissional de marketing ou agência desonesto tentará atribuir baixas taxas de conversão a outros fatores (produto ou serviço oferecido, página mal otimizada, etc.). Também lhes permite promover o cliente para serviços adicionais.
Como você pode ver, o tráfego de bot orgânico é de muito pouca utilidade, a menos que esteja associado a algum marketing desonesto e serviços de SEO.
Como regra, os bots criam a aparência de muitas visitas. No entanto, na realidade, eles são usados apenas para ganhos financeiros.
Tráfego de bot pago é um jogo sem vencedor
O uso de bots de tráfego para aumentar os cliques em anúncios beneficiará apenas dois grupos de pessoas: o editor/webmaster que coloca o anúncio ou o concorrente do anunciante.
Aumentar a receita por meio do tráfego de bots ocultos pode parecer tentador para editores que já monetizam seus sites por meio do Google Adsense. Por exemplo, existem muitos artigos na web sobre as melhores formas de comprar bots.
No entanto, as plataformas de publicidade estão cada vez mais apertando as regras de participação e estão atentas ao aumento do tráfego. Portanto, você não deve usar esta opção para aumentar a renda.
Fraude de anúncios por editores não é sobre dinheiro fácil e impunidade. Em vez de grandes pagamentos, você pode ser banido e perder qualquer receita do seu site.
Métodos de Detecção
A proteção contra robôs individuais, ou mesmo proteção completa contra botnets, é baseada em um princípio: primeiro você precisa detectar o tráfego de bots.

Para descobrir se o fluxo de tráfego é resultado de um ataque de bot, você pode consultar os seguintes métodos:
- Você pode rastrear as estatísticas de acesso acessando os logs do servidor usando o arquivo access.log. Este arquivo de texto contém informações completas sobre o tráfego no servidor. Nela, você pode visualizar o endereço IP de onde foi feita a solicitação, seu horário, tipo e conteúdo. Você deve prestar atenção especial ao parâmetro % {User-Agent} — um cabeçalho contendo informações sobre a solicitação - o aplicativo e o idioma em que foi feito. Enviar várias solicitações do mesmo IP e User-Agent em intervalos regulares deve alertá-lo.
- O uso do JavaScript pode ajudar a coletar informações importantes sobre os usuários que visitam o site (resolução da tela, fuso horário, botões clicáveis). É possível identificar quais usuários têm maior probabilidade de ser um parser simplesmente combinando as informações sobre as solicitações.
- Solicitações indesejadas de agentes com a mesma solicitação, região, fuso horário e tamanho de tela do mesmo IP podem ser bloqueadas com segurança usando um dos métodos que descreveremos a seguir.
Observe que nem todas as solicitações de bots podem vir do mesmo endereço IP. É porque os bots geralmente usam uma rede proxy, realizando assim a análise distribuída. No entanto, mesmo que as mesmas solicitações sejam recebidas de servidores diferentes, provavelmente esse é o motivo do bloqueio.
DDoS
Falando em bots maliciosos, não se pode ignorar um tópico como proteção contra ataques DDoS. Atualmente, este problema é especialmente relevante para algumas áreas específicas de atividade. Isso inclui sites de lojas online, jogos multijogador online, trocas, plataformas de investimento e outros recursos comerciais. Às vezes, um ataque DDoS em um site pode ser provocado por concorrentes agressivos que buscam desativar seu recurso. Ainda assim, às vezes o site também é atacado por hackers de ransomware e, às vezes, pode ser atacado apenas por diversão, sem um propósito maligno. Seja qual for o caso, qualquer projeto sério precisará de proteção contra esses ataques. Você deve saber como parar o tráfego de bots no site.
Normalmente, os ataques DDoS são descritos no modelo OSI de sete camadas. O primeiro nível da rede é físico. O segundo é o canal (conecta redes no nível do canal por meio de switches); quanto mais alto, mais abstrato. Os ataques DDoS podem ser de baixo e alto nível. Os ataques de nível mais baixo estão nos níveis terceiro-quinto da rede: “entupindo” o canal com ping ou solicitações de conexão TCP (as chamadas solicitações SYN). Eles são fáceis de lidar. Mas quanto maior o nível de ataque, mais complexa se torna a defesa.
Os ataques de alto nível do mais alto, nível 7, são mais perigosos. Eles são direcionados para as páginas mais difíceis do site ou executam ações complexas nele, por exemplo, configurando um filtro de catálogo para exibir a seleção máxima de produtos. Centenas ou até milhares de bots realizam o ataque, e a negação de serviço pode ocorrer no servidor da Web, back-end ou servidor de banco de dados.
Para lidar com esses ataques, usamos o WAF (Web Application Firewall) — um sistema especial de monitores e filtros projetados para detectar e bloquear ataques de rede em um aplicativo da web. No entanto, esse é um nível de ataque relativamente alto e habilitamos o WAF apenas nos casos mais graves — via de regra, a proteção essencial é suficiente, habilitada por padrão em todos os nossos servidores.
Se o seu site estiver hospedado em seu hardware na sala do servidor, você provavelmente terá que lidar com o ataque por conta própria. Você deve conectar um endereço IP adicional ou um serviço especializado para proteger seu site. Em alguns casos, mudar para um VDS ou um servidor dedicado pode ser uma excelente opção para quem já possui esses serviços conectados. No final, um ataque maciço pode ser esperado! Mas o melhor é se você tiver um provedor de hospedagem confiável a quem possa delegar a proteção do site contra DDoS.
Conclusão
Os proprietários de seus recursos da Web geralmente enfrentam o problema de análise de dados e ataques maliciosos, mas o desenvolvimento de métodos de proteção não para. Para se proteger contra cópia e roubo de dados do site, você pode seguir várias maneiras, por exemplo, instalar um captcha na página, inserir uma armadilha no código ou rastrear bots de acordo com os dados do agente do usuário com bloqueio subsequente. A atenção cuidadosa à análise e instalação de ferramentas de proteção, mesmo com o mínimo de trabalho com o código, ajudará a resolver o problema de análise, spam e carregamento no site.