Что такое бот-трафик и как он используется для мошенничества с отчетами о трафике?
Опубликовано: 2023-05-16Всплеск посещений сайта может привести к замедлению работы сайта, снижению производительности, перегрузке ресурсов, искаженным посещениям, статистике кликов, негативному влиянию на поисковую оптимизацию и повышению уязвимости к DDoS-атакам и фишинговым атакам.
Если вы хотите проанализировать трафик на свой сайт, посмотрите в счетчике скачок просмотров определенных страниц, высокий показатель отказов, необычно долгое или короткое время на странице, недействительные или отсутствующие конверсии, а также массовые переходы в регионах, которые вы не знаете. рекламировать.
Какую долю интернет-трафика генерируют боты? Оценки разнятся. Однако можно предположить, что рефералы ботов составляют около 42% всего мирового веб-трафика, более половины которого приходится на «плохих» ботов.
Что такое бот-трафик?
На сайт всегда заходят роботы — это просто часть современного Интернета, и даже поисковые системы так индексируют ресурсы. Но с помощью ботов (или автоматических сканеров) можно и парсить данные, т. е. извлекать информацию из веб-ресурсов. Бот, задействованный в этом, представляет собой программу или скрипт, выполняющий простые автоматизированные действия на сайте:
- Выгрузка кода страницы.
- Разделение его на составляющие элементы.
- Извлечение данных.
- Сохранение в базе данных.
Цели такой коллекции могут быть разными. В большинстве случаев веб-скрапинг проводится для получения определенных данных со страниц конкурентов, которые затем могут использоваться на их ресурсах и выполнять вредоносные атаки. Тем не менее, синтаксический анализ полезен для аналитических или исследовательских целей, что само по себе не несет в себе ничего страшного.
Хорошие, плохие и уродливые боты
Прежде чем мы углубимся в тему определения бот-трафика, мы должны изучить классификацию. Мы можем разделить ботов на полезных (хороших) и вредоносных (плохих).
Полезные боты
Это роботы, которые нам нужны. Они выполняют необходимые действия в Интернете. Они помогают выполнять ценную и сложную работу в кратчайшие сроки. Кроме того, в отличие от человека, они автоматизируют рутинные процессы, так как могут обрабатывать огромные объемы данных.
Поисковые роботы
- Вы также можете знать их как «веб-пауки» или «поисковики». Это одни из самых распространенных и самых полезных ботов в Интернете. Все результаты поиска и взаимодействие пользователя с поиском — заслуга поисковых роботов. При публикации новой страницы сайта бот просканирует ее в течение нескольких недель. Инструменты SEO, такие как SEMRush, Screaming Frog, SE Ranking, Moz и т. д., также имеют роботов для анализа результатов поиска и ресурсов для их более эффективной оптимизации.
Боты, проверяющие сайт
- В отличие от поисковых роботов, которые индексируют сайты на глобальном уровне, такие боты являются инструментом оценки эффективности того или иного ресурса. Если справка многостраничная или большая, такие проверки необходимы. Они позволяют владельцу сайта улучшать его в соответствии с потребностями пользователей. Например, они могут быстро определить и исправить время загрузки страницы, проблемы с производительностью, неработающие ссылки и недостаточно оптимизированные изображения.
Боты проверяют нарушение авторских прав
- Эти боты контролируют соблюдение авторских прав на ведущих видеохостингах и в социальных сетях, таких как YouTube и TikTok. С помощью специального программного обеспечения эти роботы анализируют большие объемы аудио- и видеоданных на предмет наличия определенных форм и шаблонов, соответствующих защищенным авторским правом материалам и находящихся в базе данных хостинга. Несмотря на неоспоримую эффективность этих роботов, многие эксперты и рядовые пользователи сходятся во мнении, что боты генерируют недопустимо высокий уровень ложных срабатываний и несправедливо наказывают авторов, чей контент мало похож на материалы, защищенные авторским правом.
Вредоносные боты
К сожалению, на каждого «хорошего» бота для улучшения Интернета найдется злонамеренный бот, который сделает что-то менее ценное. Например, накрутить трафик на рекламу ботами. Давайте посмотрим, что такое «плохие» роботы.
Боты для кликов по рекламе
- Они представляют собой серьезную проблему для цифровой рекламы. Кликают по контекстной рекламе в поиске. Они тратят впустую рекламные бюджеты и наносят ущерб маркетинговым кампаниям. Все чаще можно встретить ботов, которые могут имитировать поведение реальных пользователей, тем самым скрывая свою вредоносную активность. Например, они могут пролистывать страницы сайта, следовать за ними случайным образом, оставаться на странице более одной секунды и т. д.
Боты для DDoS-атак
- Отказ в обслуживании (DoS) — это атака типа «отказ в обслуживании», целью которой является замедление работы ресурса или отключение его на определенное время. Трафик направленного потокового бота перегружает сервер, и он перестает отвечать на запросы реальных пользователей. В результате сайт становится недоступным. Распределенный отказ в обслуживании (DDoS) — это распределенная атака типа «отказ в обслуживании» с нескольких устройств и сетей. Эта функция значительно усложняет блокировку атаки ботов на сайт. Боты DDoS обычно распространяются через ботнет, сеть пользовательских устройств, зараженных вредоносным ПО. Пользователь может случайно установить вредоносное ПО или посетить мошеннический сайт. Таким образом, его устройство становится частью ботнета и автоматически выполняет управляемые оператором атаки.
Боты-покупатели
- Они предназначены для атак отсутствия товаров на интернет-магазины. Концепция проста: боты добавляют в корзину определенные товары с высоким спросом и оставляют их там без оформления заказа. Соответственно количество товаров на складе автоматически уменьшается. Они делают это до тех пор, пока продукт не «иссякнет». Затем настоящие покупатели видят, что товар распродан, и покидают сайт. Товар из каталога привязывается к конкретной корзине только на короткое время (обычно 10–15 минут). Но когда каталог подвергается длительной автоматической атаке, ботам легко сделать товар недоступным для покупателей.
Это лишь некоторые вредоносные действия, с которыми ежедневно сталкиваются службы блокировки ботов, такие как Botfaqtor.
Кому нужен органический бот-трафик
Есть много вариантов, в которых маркетологам и оптимизаторам нужен дополнительный трафик. Однако почти все они лежат в плоскости партнерского маркетинга.
Покупка и продажа сайтов
Продажа веб-сайтов — это большой бизнес. Как и в реальной жизни, коммерческая цифровая недвижимость бывает разных форм, размеров и состояний. Тех, кто готов потратить время и деньги на «приведение в порядок» ресурса или онлайн-бизнеса для дальнейшей продажи или монетизации, ждут большие деньги.
Если у сайта много посетителей, вы можете продемонстрировать потенциальному покупателю, какую выгоду он может получить, разместив на нем рекламный контент. Таким образом, с точки зрения продавца, соблазн искусственно завышать показатели трафика с помощью ботов велик.
Продавцы черной шляпы
Несмотря на безапелляционные утверждения поисковых систем, таких как Google, о том, что «трафик сайта не является фактором ранжирования», многие эксперты ошибочно связывают высокую посещаемость с высокими позициями в результатах поиска.
Следовательно, многие «эксперты» по продвижению (и клиенты) по-прежнему готовы платить большие деньги за органический бот-трафик. Используется технология бомбардировки поисковых систем, при которой в результатах поиска по запросу отображается нерелевантный сайт, на котором нет вхождений искомых ключевых слов. Они ошибочно полагают, что таким образом вырастут их рейтинги и позиции.
Нечестные маркетологи и агентства
К сожалению, недобросовестная практика надувания посетителей веб-сайтов бот-трафиком все еще жива и процветает в 2023 году. Любой, кто хоть немного разбирается в цифровом маркетинге, знает, что трафик как таковой — это показатель, призванный потешить самолюбие, и не более того.
Если ни один из посетителей, нажавших на объявление, не выполнил целевое действие, увеличение числа посетителей не пойдет на пользу бизнесу. Однако у многих владельцев бизнеса нет времени изучать все тонкости маркетинга.
Даже когда правда о завышенном трафике становится очевидной, недобросовестный маркетолог или агентство попытается списать низкие показатели конверсии на другие факторы (предлагаемый продукт или услугу, плохо оптимизированную страницу и т. д.). Это также позволяет им продвигать клиента для получения дополнительных услуг.
Как видите, от органического бот-трафика очень мало пользы, если только он не связан с какими-то нечестными маркетинговыми и SEO-сервисами.
Как правило, боты создают видимость многопосещений. Однако на самом деле они используются только для получения финансовой выгоды.
Платный бот-трафик — игра без победителя
Использование трафик-ботов для увеличения количества кликов по рекламе принесет пользу только двум группам людей: издателю/веб-мастеру, который размещает рекламу, или конкуренту рекламодателя.
Увеличение дохода за счет скрытого бот-трафика может показаться заманчивым для издателей, которые уже монетизируют свои сайты с помощью Google Adsense. Например, в сети есть много статей о лучших способах покупки ботов.
Однако рекламные площадки все больше ужесточают правила участия и бдительно следят за наращиванием трафика. Поэтому не стоит использовать этот вариант для увеличения дохода.
Рекламное мошенничество со стороны издателей — это не легкие деньги и безнаказанность. Вместо крупных выплат вы можете получить бан и потерять любой доход с вашего сайта.
Методы обнаружения
Защита от отдельных роботов или даже полноценная защита от ботнетов основана на одном принципе: сначала нужно обнаружить бот-трафик.
Чтобы узнать, является ли приток трафика результатом атаки ботов, вы можете обратиться к следующим методам:
- Вы можете отслеживать статистику доступа, обращаясь к журналам сервера с помощью файла access.log. Этот текстовый файл содержит полную информацию о трафике на сервере. В нем можно просмотреть IP-адрес, с которого был сделан запрос, его время, тип и содержание. Особое внимание следует обратить на параметр %{User-Agent} — заголовок, содержащий информацию о запросе-приложении и языке, на котором он был сделан. Отправка нескольких запросов с одного и того же IP-адреса и User-Agent через равные промежутки времени должна вас насторожить.
- Использование JavaScript может помочь собрать важную информацию о пользователях, посещающих сайт (разрешение экрана, часовой пояс, нажимаемые кнопки). Можно определить, какие пользователи, скорее всего, будут парсером, просто сопоставив информацию о запросах.
- Нежелательные запросы от агентов с одинаковым запросом, регионом, часовым поясом и размером экрана с одного и того же IP можно безопасно заблокировать одним из способов, которые мы опишем ниже.
Обратите внимание, что не все запросы от ботов могут поступать с одного и того же IP-адреса. Это связано с тем, что боты обычно используют прокси-сеть, выполняя таким образом распределенный анализ. Однако даже если одни и те же запросы поступают с разных серверов, это, скорее всего, является причиной блокировки.
ДДоС
Говоря о вредоносных ботах, нельзя обойти вниманием такую тему, как защита от DDoS-атак. В настоящее время эта проблема особенно актуальна для некоторых конкретных сфер деятельности. К ним относятся сайты интернет-магазинов, многопользовательские онлайн-игры, биржи, инвестиционные площадки и другие коммерческие ресурсы. Иногда DDoS-атаку на сайт могут спровоцировать агрессивные конкуренты, стремящиеся вывести из строя ваш ресурс. Тем не менее, иногда сайт также подвергается атакам хакеров-вымогателей, а иногда он может быть атакован просто для развлечения без злой цели. В любом случае любой серьезный проект будет нуждаться в защите от этих атак. Вы должны знать, как остановить трафик ботов на сайте.
Как правило, DDoS-атаки описываются в семиуровневой модели OSI. Первый уровень сети — физический. Второй — канальный (соединяет сети на канальном уровне через коммутаторы); чем выше, тем абстрактнее. DDoS-атаки могут быть низкоуровневыми и высокоуровневыми. Самые низкоуровневые атаки относятся к третьему-пятому уровням сети: «засорение» канала пинговыми или TCP-запросами на соединение (так называемые SYN-запросы). С ними легко иметь дело. Но чем выше уровень атаки, тем сложнее становится защита.
Высокоуровневые атаки самого высокого, 7-го уровня, более опасны. Они направляются на самые сложные страницы сайта или выполняют над ним сложные действия, например, настраивают фильтр каталога для отображения максимального выбора товаров. Атаку осуществляют сотни или даже тысячи ботов, и отказ в обслуживании может произойти с веб-сервера, серверной части или сервера базы данных.
Для борьбы с такими атаками мы используем WAF (Web Application Firewall) — специальную систему мониторов и фильтров, предназначенную для обнаружения и блокировки сетевых атак на веб-приложение. Однако это относительно высокий уровень атаки, и мы включаем WAF только в самых тяжелых случаях — как правило, достаточно основной защиты, включенной по умолчанию на всех наших серверах.
Если ваш сайт размещен на вашем оборудовании в серверной, вам, скорее всего, придется бороться с атакой самостоятельно. Вам необходимо подключить дополнительный IP-адрес или специализированный сервис для защиты вашего сайта. В некоторых случаях отличным вариантом может стать переход на VDS или выделенный сервер, к которым такие услуги уже подключены. В конце концов, массированную атаку можно переждать! Но лучше всего, если у вас есть надежный хостинг-провайдер, которому вы можете делегировать защиту сайта от DDoS.
Заключение
Владельцы своих веб-ресурсов часто сталкиваются с проблемой парсинга данных и вредоносных атак, но разработка методов защиты не стоит на месте. Для защиты от копирования и кражи данных сайта можно пойти несколькими путями, например, установить капчу на страницу, ввести в код ловушку или отслеживать ботов по данным User-Agent с последующей блокировкой. Внимательное отношение к аналитике и установка средств защиты даже при минимальной работе с кодом помогут решить проблему парсинга, спама и загрузки на сайт.