京东商品信息网络爬虫并导入到mysql数据库。
完整代码如下:
import MySQLdb
from bs4 import BeautifulSoup
import requests
import re
db = MySQLdb.connect(host=localhost,user=root,passwd=123456,db=python,charset="utf8")#连接数据库(地址,用户名,密码,数据库名)
print("数据库连接成功")
cur = db.cursor()#取游标
def getHTMLText(url):
kv={user-agent:Mozilla/5.0 (Windows NT 6.1; rv:40.0) Gecko/20100101 Firefox/40.0}
try:
r=requests.get(url,headers=kv,timeout=30)
r.raise_for_status()
r.encoding=r.apparent_encoding
return r.text
except:
return "-1"
def parsePage(ilt,html):
try:
soup=BeautifulSoup(html,html.parser)
plt=soup.find_all(div,attrs={class:p-price})#提取所有class为p-price的标签
tlt=soup.find_all(div,attrs={class:p-name p-name-type-2})
title=re.findall(r<em>.*</em>,str(tlt))#需要提取的数据在em标签中,因此用此标签定位
price=re.findall(r<i>d*.d*</i>,str(plt))#需要提取的数据在i标签中,因此用此标签定位
for i in range(len(title)):
price[i]=re.sub(r<[^>]+>,"",str(price[i]),re.S)#清除标签
title[i]=re.sub(r<[^>]+>,"",str(title[i]),re.S)#清除标签
ilt.append([price[i],title[i]])
except:
print("")
def printGoodsList(ilt):
tplt="{:4} {:8} {:16}"
print(tplt.format("序号","价格","商品名称"))
count=0
sql = "insert into yifu(number,price,title) VALUES (%s,%s,%s)"
for i in range(len(ilt)):
count+=1
ilt1=ilt[i]
print(tplt.format(count,ilt1[0],ilt1[1]))
cur.execute(sql,(count,ilt1[0],ilt1[1]))#执行数据库插入操作
db.commit()
print(插入成功)
def main():
goods=衣服
depth=3
start_url=https://search.jd.com/Search?keyword=+goods
infoList=[]
for i in range(depth):
try:
url=start_url+&enc=utf-8&page=+str(i)
html=getHTMLText(url)
parsePage(infoList,html)
except:
continue
printGoodsList(infoList)
main()
运行结果如下:
上一篇:
Java架构师技术进阶路线图
下一篇:
网络安全----网络协议的安全性
