Аналитики – «машинного» трафика в Интернете больше «человеческого»

Компания Incapsula, которая предлагает облачные средства безопасности для web-сайтов, провела исследование с любопытными результатами. Как выяснилось, больше всего трафика на web-сайтах создают не живые посетители, а разного рода автоматические системы. Доля машин в трафике популярных web-сайтов достигает 51%. Что еще важнее, значительная часть этого «машинного» трафика имеет вредоносную природу – источником «машинного» трафика, кроме поисковых систем, часто служат разного рода сканеры уязвимостей.
Крайне интересно выглядит полученная специалистами Incapsula картина распределения трафика на web-сайтах. Получается, что оплачивая исходящий трафик из сети провайдера, заказчики web-сайтов больше платят не за показ своей информации потенциальным клиентам, а на обслуживание роботов, ищущих лазейки в системе безопасности.
Разного рода хакерские утилиты, по данным Incapsula, составляют 5% от общего трафика – эти утилиты ищут новые или старые, но не исправленные уязвимости. Еще 5% трафика составляют так называемые «скреперы» (scraper), то есть web-сайты, которые копируют контент благонадежных источников, чтобы привлечь к себе внимание поисковых систем и дополнительный трафик. Автоматические системы для публикации комментариев (рекламных и другого рода) генерируют 2% трафика на среднем web-сайте. Шпионские программы, которые собирают любую информацию в рамках экономического шпионажа, генерируют очень заметные 19% трафика. Еще 20% трафика порождают поисковые системы – это «машинный» трафик, однако он совершенно не опасен, а наоборот, полезен для лучшей индексации сайта.
В совокупности, машинный трафик составляет 51%, а на долю живых людей остается всего 49%. Исследование было проведено по выборке из 1000 сайтов, обслуживаемых компанией Incapsula.