python爬虫初学笔记(1)
@requests库入门笔记
requests.request(method,url,**kwargs)
method:对应requests的get,head等方法 url :网站链接 **kwarge:13个控制访问参数 params:字典或字节序列作为参数增加到url中 data:字典,字节序列或文件对象 json:JSON格式数据 headers:字典,HTTP定制头 cookies:字典或CookieJar auth:元组 file:字典类型,传输文件 timeout:设定超时时间,单位为秒 proxies:字典类型,设置访问代理服务器 allow_redirects,stream,verify,cert
r = requests.get(url,params = None,**kwargs)
构造一个向服务器请求资源的对象Request 返回一个包含服务器资源的Response url 是网站的url 链接 params 是url中的额外参数 **kwargs是12个控制访问的参数 r.raise_for_status():检测是否访问错误 。
对象Response的属性:
status_code: 状态码 , 200为成功访问,其他为访问失败。 text: 字符串内容。 encoding:从header中猜测出的编码方式。 apparent_encoding:从内容中分析出的编码方式 content:二进制内容,一般用来返回图片。
r = requests.head(url,header)//返回头部信息 requests.post(url,data=None,json=None,**kwargs) requests.put(url,data = None,**kwargs) requests.patch(url,data=None,**kwargs)//局部修改请求 requests.delete(url,**kwargs)//删除请求
爬虫,主要掌握get,head方法
基本框架:
try: r = requests.get(url,timeout = 30) r.raise_for_status() r.encoding = r.apparent_encoding print(r.text) except: print("爬取失败")
上一篇:
IDEA上Java项目控制台中文乱码