阿布云

你所需要的,不仅仅是一个好用的代理。

爬虫的基本概述

阿布云 发表于

6.png

网络爬虫(Web crawler),其实就是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本,它们被广泛用于互联网搜索引擎或其他类似网站,可以自动采集所有能够访问到的页面内容,然后获取或更新这些网站的内容和检索方式.功能上来,爬虫一般分为数据采集,处理,储存三个主要部分.
传统爬虫从一个或者若干初始网页的URL开始,进而获得初始网页上的URL信息.爬虫抓取网页的过程中,不断从当前页面上提取新的URL放入队列,直到满足系统的一定停止条件.聚焦爬虫的工作流程较为复杂,需要根据一定的网页分析算法过滤与主题无关的链接,保留有用的链接并将其放入等待抓取的URL队列.然后,它将根据一定的搜索策略从队列中选择下一步要抓取的网页URL,并且重复上述过程,直到达到系统的某一条件时停止抓取.另外,所有被爬虫抓取的网页将会被系统存贮,进行一定的分析、过滤,并且建立索引,以便之后的查询和检索;对于聚焦爬虫来说,这一过程所得到的分析结果还可能对以后的抓取过程给出反馈和指导.

而聚焦爬虫与通用的网络爬虫还有不同,聚焦爬虫还会面对三个主要的问题:1. 对抓取目标的描述或定义;2.对网页或数据的分析与过滤;3. 对URL的搜索策略.