【Python】爬虫:微博找人页面爬虫(三)
【Python】爬虫:微博找人页面爬虫(三)
在解决完登录问题后,就来开始下载页面来进行解析,之前提到过有两种类型的页面:列表页和文章页,列表页包含文章页的url和下一页列表页的url,也就是只有先下载解析列表页后才可以对文章页进行下载解析。因此就构建了两个不同等级的url队列,通过redis的list来构建,高优先级的存储列表页url,低优先级存储文章页url。 整个存取过程如下: 1,往highlevel中插入起始的列表页url。 2,从highlevel取出url,爬取到当前列表页的下一页url,并存入highlevel,爬取当前列表页中文章页的url,并存入lowlevel中。 3,重复步骤2,直到highlevel中无列表页的url。 4,在步骤3后,就可以从lowlevel中取文章页url,下载页面,解析后存入数据库中。
一,构建url队列 1,这里使用redis中的list来构建队列,在使用时通过不同的声明可以创建不同的队列:
self.highlevel_db = RedisClent(highlevel, self.website) self.lowlevel_db = RedisClent(lowlevel, self.website)
这里用到的RedisClent在dblink.py文件中,通过传入不同的type来创建不同的队列,通过website来实现不同网站的拓展。
class RedisClent(object): def __init__(self, type, website, host=REDIS_HOST, port=REDIS_POST, password=REDIS_PASSWORD): """ 初始化Redis连接 :param type: Hash存储类型,account or Cookies :param website: 网站 :param host:地址 :param port:端口号 :param password:密码 """ self.db = redis.StrictRedis(host=host,port=port,password=password,decode_responses=True) self.type = type self.website = website
2,这里构建的队列属于FIFO,先进先出,用到了list自带的一些方法
def Listname(self): """ 获取url队列名称 :return: """ return "{type}:{website}".format(type=self.type,website=self.website) def allurl(self,start=0,end=-1): """ 获取指定list中的所有url :return: """ return self.db.lrange(self.Listname(),start,end) def addUrl(self,url): """ 添加url进队列 :param url: url :return: """ # listname = self.Listname().get(urllevel) self.db.lrem(self.Listname(),0,url) #移除相同的url self.db.lpush(self.Listname(),url) def popurl(self): """ 获取url :param urllevel: :return: """ # listname = self.Listname().get(urllevel) print(self.Listname(),:,self.db.llen(self.Listname())) return self.db.rpop(self.Listname())
在添加url之前需要,考虑重复url的问题,这里偷懒,直接先将队列中相同的url删除,然后在添加进入队列中。
二,url队列操作 在取url时候,优先取出高优先级队列中的,取完之后,再取出低优先级队列中的url,这里构建了一个url仓库。
class UrlRepository(object): def __init__(self,website): self.website = website self.highlevel_db = RedisClent(highlevel, self.website) self.lowlevel_db = RedisClent(lowlevel, self.website) #取队列的url def urlPop(self): url = self.highlevel_db.popurl() if not url: url = self.lowlevel_db.popurl() return url #将url加人队列 def addHigh(self,url): self.highlevel_db.addUrl(url) #将url加人队列 def addlow(self,url): self.lowlevel_db.addUrl(url)
代码已经上传至GitHub,仅供参考 https://github.com/yangjunjians/Crawlers