Che cos'è il traffico bot e come viene utilizzato per frodare i rapporti sul traffico?
Pubblicato: 2023-05-16Un aumento delle visite al sito può causare rallentamenti del sito, degrado delle prestazioni, sovraccarico delle risorse, visite danneggiate, statistiche sui clic, un impatto negativo sulla SEO e una maggiore vulnerabilità agli attacchi DDoS e di phishing.
Se desideri analizzare il traffico verso il tuo sito, cerca nel contatore l'aumento delle visualizzazioni di determinate pagine, l'elevata frequenza di rimbalzo, il tempo insolitamente lungo o breve sulla pagina, le conversioni non valide o mancanti e i rinvii collettivi nelle regioni in cui non pubblicizzare.
Quale percentuale del traffico Internet è generata dai bot? Le stime variano. Tuttavia, possiamo presumere che i referral dei bot rappresentino circa il 42% di tutto il traffico web globale, più della metà del quale appartiene a bot "cattivi".
Cos'è il traffico bot?
I robot visitano sempre il sito: è solo una parte della moderna Internet e persino i motori di ricerca indicizzano le risorse in questo modo. Ma con l'aiuto di bot (o scanner automatici), puoi anche analizzare i dati, cioè estrarre informazioni dalle risorse web. Il bot coinvolto in questo è un programma o uno script che esegue semplici azioni automatizzate sul sito:
- Scaricamento del codice della pagina.
- Dividendolo nei suoi elementi costitutivi.
- Estrazione dati.
- Salvandolo nel database.
Le finalità di tale raccolta possono essere diverse. Nella maggior parte dei casi, i siti Web vengono sottoposti a scraping per ottenere dati specifici dalle pagine dei concorrenti, che possono quindi essere utilizzati sulle loro risorse ed eseguire attacchi dannosi. Tuttavia, l'analisi è utile per scopi analitici o di ricerca, che di per sé non implicano nulla di terribile.
Bot buoni, cattivi e brutti
Prima di approfondire l'argomento di come identificare il traffico bot, dobbiamo imparare la classificazione. Possiamo dividere i bot in utili (buoni) e dannosi (cattivi).
Bot utili
Questi sono i robot di cui abbiamo bisogno. Svolgono le attività necessarie su Internet. Aiutano a svolgere un lavoro prezioso e complesso nel più breve tempo possibile. Inoltre, a differenza di una persona, automatizzano i processi di routine, in quanto possono elaborare grandi quantità di dati.
Cerca Robot
- Potresti anche conoscerli come "web spider" o "search crawler". Sono uno dei bot più comuni e più utili su Internet. Tutti i risultati della ricerca e l'interazione dell'utente con la ricerca sono merito dei robot di ricerca. Quando viene pubblicata una nuova pagina del sito, un bot la scansionerà entro poche settimane. Strumenti SEO come SEMRush, Screaming Frog, SE Ranking, Moz, ecc., dispongono anche di robot per analizzare i risultati di ricerca e le risorse per ottimizzarli in modo più efficace.
Bot di qualificazione del sito
- A differenza dei robot di ricerca che indicizzano i siti a livello globale, tali robot sono uno strumento per valutare le prestazioni di una particolare risorsa. Se la guida è multipagina o di grandi dimensioni, tali controlli sono necessari. Consentono al titolare del sito di migliorarlo in base alle esigenze degli utenti. Ad esempio, possono identificare e correggere rapidamente il tempo di caricamento della pagina, i problemi di prestazioni, i collegamenti interrotti e le immagini non ottimizzate.
Bot che controllano la violazione del copyright
- Questi robot controllano l'applicazione del copyright sui principali hosting di video e social network come YouTube e TikTok. Con l'aiuto di un software speciale, questi robot analizzano grandi quantità di dati audio e video per la presenza di forme e schemi specifici che corrispondono a materiali protetti da copyright e si trovano nel database di hosting. Nonostante l'innegabile efficacia di questi robot, molti esperti e utenti ordinari concordano sul fatto che i bot generano un livello inaccettabilmente alto di falsi positivi e puniscono ingiustamente gli autori il cui contenuto ha poca somiglianza con i materiali protetti da copyright.
Bot dannosi
Sfortunatamente, per ogni bot "buono" per migliorare Internet, ci sarà un bot dannoso per fare qualcosa di meno prezioso. Ad esempio, per ingannare il traffico sulla pubblicità da parte dei bot. Vediamo cosa sono i robot "cattivi".
Ad Click Bot
- Rappresentano una sfida significativa per la pubblicità digitale. Fanno clic sugli annunci contestuali nella ricerca. Sprecano budget pubblicitari e devastano le campagne di marketing. Sempre più spesso è possibile trovare bot in grado di imitare il comportamento di utenti reali, nascondendo così la loro attività dannosa. Ad esempio, possono scorrere le pagine del sito, seguirle in modo casuale, rimanere sulla pagina per più di un secondo, ecc.
Bot per attacchi DDoS
- Denial-of-Service (DoS) è un attacco denial-of-service, il cui scopo è rallentare una risorsa o disabilitarla per un tempo specifico. Il traffico del bot in streaming diretto sovraccarica il server e smette di rispondere alle richieste degli utenti reali. Di conseguenza, il sito diventa non disponibile. Distributed-Denial-of-Service (DDoS) è un attacco denial-of-service distribuito da più dispositivi e reti. Questa funzione rende molto più difficile bloccare l'attacco bot sul sito web. I bot DDoS sono in genere diffusi attraverso una botnet, una rete di dispositivi utente infettati da malware. L'utente potrebbe installare accidentalmente malware o visitare un sito fraudolento. Pertanto, il suo dispositivo diventa parte della botnet ed esegue automaticamente attacchi diretti dall'operatore.
Bot dell'acquirente
- Sono progettati per attacchi di articoli esauriti nei negozi online. Il concetto è semplice: i robot aggiungono alcuni articoli molto richiesti al carrello e li tengono lì senza effettuare il checkout. Di conseguenza, il numero di prodotti in magazzino viene automaticamente ridotto. Lo fanno fino a quando il prodotto "si esaurisce". Quindi, i veri acquirenti vedono che il prodotto è esaurito e lasciano il sito. Un prodotto del catalogo è legato a un paniere specifico solo per un breve periodo (di solito 10-15 minuti). Ma quando un catalogo è sottoposto a un lungo attacco automatico, è facile per i bot rendere il prodotto non disponibile agli acquirenti.
Queste sono solo alcune attività dannose che i servizi di blocco dei bot come Botfaqtor incontrano quotidianamente.
Chi ha bisogno del traffico di bot organici
Ci sono molte opzioni in cui i marketer e i SEO hanno bisogno di traffico aggiuntivo. Tuttavia, quasi tutti si trovano nel piano del marketing di affiliazione.
Siti di acquisto e vendita
La vendita di siti Web è un grande affare. Come nella vita reale, gli immobili digitali commerciali sono disponibili in tutte le forme, dimensioni e condizioni. Coloro che sono disposti a spendere tempo e denaro per "riordinare" una risorsa o un'attività online per un'ulteriore vendita o monetizzazione hanno un sacco di soldi.
Se il sito ha molti visitatori, puoi dimostrare a un potenziale acquirente quali vantaggi potrebbe ottenere inserendo contenuti pubblicitari su di esso. Pertanto, dal punto di vista del venditore, la tentazione di gonfiare artificialmente i dati sul traffico con l'aiuto dei robot è potente.
Venditori di cappello nero
Nonostante le affermazioni categoriche dei motori di ricerca come Google secondo cui "il traffico del sito Web non è un fattore di ranking", molti esperti associano erroneamente un traffico elevato a posizioni elevate nei risultati di ricerca.
Di conseguenza, molti "esperti" (e clienti) di promozione sono ancora disposti a pagare cifre esorbitanti per il traffico di bot organici. Viene utilizzata la tecnologia di bombardamento dei motori di ricerca, in cui un sito irrilevante viene visualizzato nei risultati di ricerca su richiesta, su cui non sono presenti occorrenze delle parole chiave cercate. Crederanno erroneamente che le loro classifiche e posizioni cresceranno in questo modo.
Agenzie e venditori disonesti
Sfortunatamente, la pratica sleale di gonfiare i visitatori del sito Web con il traffico dei bot è ancora viva e vegeta nel 2023. Chiunque capisca anche solo un po' di marketing digitale sa che il traffico in quanto tale è un indicatore progettato per divertire l'ego e niente di più.
Se nessuno dei visitatori che hanno fatto clic sull'annuncio ha completato l'azione mirata, l'aumento dei visitatori non gioverebbe all'azienda. Tuttavia, molti imprenditori non hanno il tempo di apprendere tutti i dettagli del marketing.
Anche quando la verità sul traffico gonfiato diventa evidente, un marketer o un'agenzia disonesti cercherà di attribuire bassi tassi di conversione ad altri fattori (prodotto o servizio offerto, pagina poco ottimizzata, ecc.). Consente inoltre loro di promuovere il cliente per servizi aggiuntivi.
Come puoi vedere, il traffico organico dei bot è di scarsa utilità a meno che non sia associato ad alcuni servizi di marketing e SEO disonesti.
Di norma, i bot creano l'aspetto di molte visite. Tuttavia, in realtà, vengono utilizzati solo a scopo di lucro.
Paid Bot Traffic è un gioco senza vincitori
L'utilizzo dei robot del traffico per aumentare i clic sugli annunci andrà a vantaggio solo di due gruppi di persone: l'editore/webmaster che inserisce l'annuncio o il concorrente dell'inserzionista.
L'aumento delle entrate attraverso il traffico bot nascosto può sembrare allettante per gli editori che già monetizzano i propri siti tramite Google Adsense. Ad esempio, ci sono molti articoli sul web sui modi migliori per acquistare i bot.
Tuttavia, le piattaforme pubblicitarie stanno inasprendo sempre più le regole per la partecipazione e sono vigili sull'aumento del traffico. Pertanto, non dovresti utilizzare questa opzione per aumentare il reddito.
La frode pubblicitaria da parte degli editori non riguarda denaro facile e impunità. Invece di grandi pagamenti, puoi essere bannato e perdere qualsiasi guadagno dal tuo sito.
Metodi di rilevamento
La protezione contro i singoli robot, o anche la protezione completa contro le botnet, si basa su un principio: devi prima rilevare il traffico dei bot.
Per sapere se l'afflusso di traffico è il risultato di un attacco bot, puoi fare riferimento ai seguenti metodi:
- È possibile tenere traccia delle statistiche di accesso accedendo ai log del server utilizzando il file access.log. Questo file di testo contiene informazioni complete sul traffico sul server. In esso è possibile visualizzare l'indirizzo IP da cui è stata effettuata la richiesta, l'ora, il tipo e il contenuto. Dovresti prestare particolare attenzione al parametro % {User-Agent}, un'intestazione contenente informazioni sulla richiesta, l'applicazione e la lingua in cui è stata effettuata. L'invio di più richieste dallo stesso IP e User-Agent a intervalli regolari dovrebbe avvisarti.
- L'utilizzo di JavaScript può aiutare a raccogliere informazioni importanti sugli utenti che visitano il sito (risoluzione dello schermo, fuso orario, pulsanti cliccabili). È possibile identificare quali utenti hanno maggiori probabilità di essere un parser semplicemente confrontando le informazioni sulle richieste.
- Le richieste indesiderate provenienti da agenti con la stessa richiesta, regione, fuso orario e dimensioni dello schermo dallo stesso IP possono essere bloccate in modo sicuro utilizzando uno dei metodi descritti di seguito.
Si noti che non tutte le richieste dei bot possono provenire dallo stesso indirizzo IP. È perché i bot di solito utilizzano una rete proxy, eseguendo così l'analisi distribuita. Tuttavia, anche se le stesse richieste vengono ricevute da server diversi, questo è molto probabilmente un motivo di blocco.
DDoS
Parlando di bot dannosi, non si può ignorare un argomento come la protezione dagli attacchi DDoS. Attualmente, questo problema è particolarmente rilevante per alcune specifiche aree di attività. Questi includono siti di negozi online, giochi online multiplayer, scambi, piattaforme di investimento e altre risorse commerciali. A volte un attacco DDoS a un sito può essere provocato da concorrenti aggressivi che cercano di disabilitare la tua risorsa. Tuttavia, a volte il sito viene anche attaccato da hacker ransomware e talvolta può essere attaccato solo per divertimento senza uno scopo malvagio. In ogni caso, qualsiasi progetto serio avrà bisogno di protezione da questi attacchi. Devi sapere come fermare il traffico bot sul sito web.
In genere, gli attacchi DDoS sono descritti nel modello OSI a sette livelli. Il primo livello della rete è fisico. Il secondo è il canale (collega le reti a livello di canale tramite switch); più alto, più astratto. Gli attacchi DDoS possono essere di basso e alto livello. Gli attacchi di livello più basso sono al terzo-quinto livello della rete: “intasano” il canale con richieste di connessione ping o TCP (le cosiddette richieste SYN). Sono facili da trattare. Ma più alto è il livello di attacco, più complessa diventa la difesa.
Gli attacchi di alto livello del più alto, livello 7, sono più pericolosi. Sono indirizzati alle pagine più difficili del sito o eseguono azioni complesse su di esso, ad esempio impostando un filtro del catalogo per visualizzare la massima selezione di prodotti. Centinaia o addirittura migliaia di bot eseguono l'attacco e la negazione del servizio può verificarsi dal server Web, dal back-end o dal server di database.
Per far fronte a tali attacchi, utilizziamo WAF (Web Application Firewall), uno speciale sistema di monitor e filtri progettato per rilevare e bloccare gli attacchi di rete su un'applicazione web. Tuttavia, si tratta di un livello di attacco relativamente elevato e abilitiamo WAF solo nei casi più gravi: di norma, è sufficiente la protezione essenziale, abilitata per impostazione predefinita su tutti i nostri server.
Se il tuo sito è ospitato sul tuo hardware nella tua sala server, probabilmente dovrai affrontare tu stesso l'attacco. Devi connettere un indirizzo IP aggiuntivo o un servizio specializzato per proteggere il tuo sito. In alcuni casi, il passaggio a un VDS oa un server dedicato può essere un'ottima opzione a cui tali servizi sono già collegati. Alla fine, si può aspettare un attacco massiccio! Ma la cosa migliore è avere un provider di hosting affidabile a cui delegare la protezione del sito dagli attacchi DDoS.
Conclusione
I proprietari delle loro risorse web spesso affrontano il problema dell'analisi dei dati e degli attacchi dannosi, ma lo sviluppo dei metodi di protezione non si ferma. Per proteggersi dalla copia e dal furto dei dati del sito, è possibile procedere in diversi modi, ad esempio installare un captcha sulla pagina, inserire una trappola nel codice o tracciare i bot in base ai dati dell'agente utente con successivo blocco. Un'attenta attenzione all'analisi e all'installazione di strumenti di protezione, anche con un lavoro minimo con il codice, aiuterà a risolvere il problema dell'analisi, dello spam e del caricamento sul sito.