真香,Python爬取B站弹幕原来如此简单,源码已附在文末

B站的弹幕区一直是人才圣地。今天我就用 python 来手把手教大家爬取B站排行榜热门视频,Python爬取视频也可以如此简单。

网站分析

在B站中,只要视频中有弹幕,就会有一个 cid 参数。cid 用来表示某个视频对应的弹幕池。每个弹幕都有一个对应的 XML 文件,我们可以通过解析 XML 文件获取到 B 站视频的弹幕。

所以,只要知道了 cid 参数值,就可以找到视频弹幕数据的位置了。

那我们在观看视频的时候该如何拿到这个 XML 文件呢?

B 站的弹幕是在 XML 文件里,每个视频都有其对应的 cid 和 aid,我们取到 cid 中的数字放入

http://comment.bilibili.com/cid.xml,即可得到该视频对应的弹幕 XML 文件。

首先我们打开视频播放地址,F12打开浏览器开发者模式,如下图找到视频对应的cid就可以构造出弹幕链接

http://comment.bilibili.com/451236101.xml

到此可为止,有了弹幕文件,后面将通过爬虫方式解析弹幕,并进行弹幕内容分析。

请求发送

我们使用request模拟浏览器发送请求获取弹幕数据

url = fhttp://comment.bilibili.com/{ cid}.xml headers = { referer: https://www.bilibili.com/video/BV19h411s7oq?spm_id_from=333.934.0.0, User-Agent: https://www.bilibili.com/video/BV19h411s7oq?spm_id_from=333.934.0.0, cookie: “_uuid=19DF1EDB-20B7-FF74-A700-9DF415B2429530977infoc; buvid3=AAD6C6C7-FB31-40E7-92EC-7A6A7ED3920C148814infoc; sid=jzp2723t; fingerprint=2e74a5bc11a3adec2616987dde475370; buvid_fp=AAD6C6C7-FB31-40E7-92EC-7A6A7ED3920C148814infoc; buvid_fp_plain=AAD6C6C7-FB31-40E7-92EC-7A6A7ED3920C148814infoc; DedeUserID=434541726; DedeUserID__ckMd5=448fda6ab5098e5e; SESSDATA=1fe46ad7%2C1651971297%2Ceb583*b1; bili_jct=5bcd45718996ac402a29c7f23110984d; blackside_state=1; rpdid=|(u)YJlJmmu|0JuYJYRummJm; bp_t_offset_434541726=590903773845625600; bp_video_offset_434541726=590903773845625600; CURRENT_BLACKGAP=0; LIVE_BUVID=AUTO5716377130871212; video_page_version=v_old_home; PVID=1; CURRENT_FNVAL=976; i-wanna-go-back=1; b_ut=6; b_lsid=4F7CFC82_17D78864851; bsource=search_baidu; innersign=1” } resp = requests.get(url, headers = headers) print(resp.text)

成功获取到了数据但是全部都是乱码,这里我们不用设置字符的编码格式,

只需要让request获取到的编码格式和网页的编码格式相等即可

一行代码即可搞定

# 调用.encoding属性获取requests模块的编码方式 # 调用.apparent_encoding属性获取网页编码方式 # 将网页编码方式赋值给response.encoding resp.encoding = resp.apparent_encoding

成功获取到弹幕数据

信息提取

数据已经给成功的获取到,接下来我们要提取出所有的弹幕信息,

我们从获取到网站的响应信息后可以看出,所有的弹幕文字信息其实都是在

****标签之内的

<d

p=“221.05300,1,25,16777215,1638378040,0,a60c99c7,58346355162459136,10”>太木呐了 二仙桥大爷</d>

所以我们选择使用正则提取。

# 获取所有评论内容 content_list = re.findall(<d p=”.*?”>(.*?)</d>, resp.text)

数据保存

我们使用函数将所有的弹幕数据存储在’B站弹幕.csv’文件中

if os.path.exists(comment_file_path): os.remove(comment_file_path) for item in content_list: with open(comment_file_path, a, encoding = utf-8)as fin: fin.write(item + \n) print(item) print(————-弹幕获取完毕!————-)

数据处理

接下来就是对数据去重和去空处理了,然后随机抽取五条数据展示如下:

# 读取数据 rcv_data = pd.read_csv(./B站弹幕.csv, encoding=gbk) # 抽样展示5条数据 print(rcv_data.sample(5)) 精彩弹幕 538 一脸开心 162 好活 661 买两箱,,买买买买 17 笑死我了 哈哈哈 424 不忘初心

词频展示

文章评论出现频率最高的前十个词分别如下:

# 词频设置 all_words = [word for word in result.split() if len(word) > 1 and word not in stop_words] wordcount = Counter(all_words).most_common(10) (哈哈哈, 大爷, 制作, 离谱, 一起, 猝不及防, 二仙, sir, 卧槽, 一定) (207, 69, 27, 13, 13, 13, 12, 12, 12, 9)

词云展示

我们使用结巴分词

最后使用stylecloud绘制漂亮的词云图展示

# 词云展示 def visual_ciyun(): pic = ./img.jpg gen_stylecloud(text=result, icon_name=fas fa-archway, font_path=msyh.ttc, background_color=white, output_name=pic, custom_stopwords=stop_words ) print(词云图绘制成功!)

源码奉上

# -*- coding: utf-8 -*- # Date: 2021/12/2 10:00 # Author: 不卖萌的邓肯 # wechat: 印象python import requests import re, os import jieba from wordcloud import WordCloud from imageio import imread comment_file_path = B站弹幕.csv def spider_page(cid): url = fhttp://comment.bilibili.com/{ cid}.xml headers = { referer: xxxxx, User-Agent: xxxxx, cookie: “xxxxx” } resp = requests.get(url, headers = headers) # 调用.encoding属性获取requests模块的编码方式 # 调用.apparent_encoding属性获取网页编码方式 # 将网页编码方式赋值给response.encoding resp.encoding = resp.apparent_encoding print(resp.text) if resp.status_code == 200: # 获取所有评论内容 content_list = re.findall(<d p=”.*?”>(.*?)</d>, resp.text) if os.path.exists(comment_file_path): os.remove(comment_file_path) for item in content_list: with open(comment_file_path, a, encoding = utf-8)as fin: fin.write(item + \n) print(item) print(————-弹幕获取完毕!————-) def data_visual(): with open(comment_file_path, encoding=utf-8)as file: comment_text = file.read() wordlist = jieba.lcut_for_search(comment_text) new_wordlist = .join(wordlist) mask = imread(img_1.png) wordcloud = WordCloud(font_path=msyh.ttc, mask=mask).generate(new_wordlist) wordcloud.to_file(picture_1.png) if __name__ == __main__: cid = 451236101 print(正在解析,开始爬取弹幕中。。。。。) spider_page(cid) #data_visual()

今天分享就到此结束啦!有问题,评论区见~~

© 版权声明
THE END
喜欢就支持一下吧
点赞6 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片