python爬虫初学笔记(1)

@requests库入门笔记

requests.request(method,url,**kwargs)

method:对应requests的get,head等方法
url :网站链接
**kwarge:13个控制访问参数
params:字典或字节序列作为参数增加到url中
data:字典,字节序列或文件对象
json:JSON格式数据
headers:字典,HTTP定制头
cookies:字典或CookieJar
auth:元组
file:字典类型,传输文件
timeout:设定超时时间,单位为秒
proxies:字典类型,设置访问代理服务器
allow_redirects,stream,verify,cert

r = requests.get(url,params = None,**kwargs)

构造一个向服务器请求资源的对象Request
返回一个包含服务器资源的Response
url 是网站的url 链接
params 是url中的额外参数
**kwargs是12个控制访问的参数
r.raise_for_status():检测是否访问错误 。

对象Response的属性:

status_code: 状态码 , 200为成功访问,其他为访问失败。
text: 字符串内容。
encoding:从header中猜测出的编码方式。
apparent_encoding:从内容中分析出的编码方式
content:二进制内容,一般用来返回图片。

r = requests.head(url,header)//返回头部信息 requests.post(url,data=None,json=None,**kwargs) requests.put(url,data = None,**kwargs) requests.patch(url,data=None,**kwargs)//局部修改请求 requests.delete(url,**kwargs)//删除请求

爬虫,主要掌握get,head方法

基本框架:

try:
	r = requests.get(url,timeout = 30)
	r.raise_for_status()
	r.encoding = r.apparent_encoding
	print(r.text)
except:
	print("爬取失败")
经验分享 程序员 微信小程序 职场和发展