快捷搜索: 王者荣耀 脱发

Python爬虫入门教程05:B站视频弹幕的爬取

前言💨

前文内容💨

PS:如有需要 Python学习资料 以及 解答 的小伙伴可以加点击下方链接自行获取

基本开发环境💨

    Python 3.6 Pycharm

相关模块的使用💨

    requests re

安装Python并添加到环境变量,pip安装需要的相关模块即可。

一、💥明确需求

找一个弹幕比较多的视频爬取

二、💥网页数据分析

以前的B站弹幕视频,点击查看历史的弹幕,会给你返回一个json数据,包含了所有的弹幕内容。 现在点击历史弹幕数据,同样是有数据加载出来,但是里面的都是乱码了。 请求这个链接还是会得到想要的数据内容。 只需要使用正则表达匹配中文字符就可以匹配出来

三、💥解析数据并多页爬取

弹幕分页是根据日期来的,当点击 2021-01-01 的使用,返回的给我的数据并不是弹幕数据,而是所有的日期。 那么看到这里有人就会问了,那我想要爬取 2021-01-01 的弹幕数据怎么办? 这两个的url地址是不一样的,seg.so 才是弹幕数据url地址。

import requests
import re


def get_response(html_url):
    headers = {
          
   
        cookie: 你自己的cookie,
        origin: https://www.bilibili.com,
        referer: https://www.bilibili.com/video/BV19E41197Kc,
        user-agent: Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36,
    }
    response = requests.get(url=html_url, headers=headers)
    return response


def get_date(html_url):
    response = get_response(html_url)
    json_data = response.json()
    date = json_data[data]
    print(date)
    return date
    
if __name__ == __main__:
    one_url = https://api.bilibili.com/x/v2/dm/history/index?type=1&oid=120004475&month=2021-01
    get_date(one_url)

返回的数据是json数据,根据字典键值对取值就可以得到相关数据。

四、💥保存数据(数据持久化)

def main(html_url):
    data = get_date(html_url)
    for date in data:
        url = fhttps://api.bilibili.com/x/v2/dm/web/history/seg.so?type=1&oid=120004475&date={date}
        html_data = get_response(url).text
        result = re.findall(".*?([u4E00-u9FA5]+).*?", html_data)
        for i in result:
            with open(B站弹幕.txt, mode=a, encoding=utf-8) as f:
                f.write(i)
                f.write(
)

五、💥完整代码

import requests
import re


def get_response(html_url):
    headers = {
          
   
        cookie: 你自己的cookie,
        origin: https://www.bilibili.com,
        referer: https://www.bilibili.com/video/BV19E41197Kc,
        user-agent: Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36,
    }
    response = requests.get(url=html_url, headers=headers)
    return response


def get_date(html_url):
    response = get_response(html_url)
    json_data = response.json()
    date = json_data[data]
    print(date)
    return date


def save(content):
    for i in content:
        with open(B站弹幕.txt, mode=a, encoding=utf-8) as f:
            f.write(i)
            f.write(
)
            print(i)


def main(html_url):
    data = get_date(html_url)
    for date in data:
        url = fhttps://api.bilibili.com/x/v2/dm/web/history/seg.so?type=1&oid=120004475&date={date}
        html_data = get_response(url).text
        result = re.findall(".*?([u4E00-u9FA5]+).*?", html_data)
        save(result)


if __name__ == __main__:
    one_url = https://api.bilibili.com/x/v2/dm/history/index?type=1&oid=120004475&month=2021-01
    main(one_url)

💥总结

1、需要登陆才能查看历史弹幕,爬取时需要携带cookie
2、可以保存到Excel里面,本文是保存txt文本
3、保存数据之后可以做词云分析下篇文章再说吧
经验分享 程序员 微信小程序 职场和发展