网站剖析
在B站中,只要视频中有弹幕,就会有一个 cid 参数。cid 用来表示某个视频对应的弹幕池。每个弹幕都有一个对应的 XML 文件,我们可以通过解析 XML 文件获取到 B 站视频的弹幕。
以是,只要知道了 cid 参数值,就可以找到视频弹幕数据的位置了。
那我们在不雅观看视频的时候该如何拿到这个 XML 文件呢?

B 站的弹幕是在 XML 文件里,每个视频都有其对应的 cid 和 aid,我们取到 cid 中的数字放入 http://comment.bilibili.com/cid.xml,即可得到该视频对应的弹幕 XML 文件。
首先我们打开视频播放地址,F12打开浏览器开拓者模式,如下图找到视频对应的cid就可以布局出弹幕链接
http://comment.bilibili.com/451236101.xml
到此可为止,有了弹幕文件,后面将通过爬虫办法解析弹幕,并进行弹幕内容剖析。
要求发送
我们利用request仿照浏览器发送要求获取弹幕数据
url = f'http://comment.bilibili.com/{ cid}.xml'headers = { 'referer': 'https://www.bilibili.com/video/BV19h411s7oq?spm_id_from=333.934.0.0', 'User-Agent': 'https://www.bilibili.com/video/BV19h411s7oq?spm_id_from=333.934.0.0', 'cookie': "_uuid=19DF1EDB-20B7-FF74-A700-9DF415B2429530977infoc; buvid3=AAD6C6C7-FB31-40E7-92EC-7A6A7ED3920C148814infoc; sid=jzp2723t; fingerprint=2e74a5bc11a3adec2616987dde475370; buvid_fp=AAD6C6C7-FB31-40E7-92EC-7A6A7ED3920C148814infoc; buvid_fp_plain=AAD6C6C7-FB31-40E7-92EC-7A6A7ED3920C148814infoc; DedeUserID=434541726; DedeUserID__ckMd5=448fda6ab5098e5e; SESSDATA=1fe46ad7%2C1651971297%2Ceb583b1; bili_jct=5bcd45718996ac402a29c7f23110984d; blackside_state=1; rpdid=|(u)YJlJmmu|0J'uYJYRummJm; bp_t_offset_434541726=590903773845625600; bp_video_offset_434541726=590903773845625600; CURRENT_BLACKGAP=0; LIVE_BUVID=AUTO5716377130871212; video_page_version=v_old_home; PVID=1; CURRENT_FNVAL=976; i-wanna-go-back=1; b_ut=6; b_lsid=4F7CFC82_17D78864851; bsource=search_baidu; innersign=1" } resp = requests.get(url, headers = headers) print(resp.text)
成功获取到了数据但是全部都是乱码,这里我们不用设置字符的编码格式,
只须要让request获取到的编码格式和网页的编码格式相等即可
一行代码即可搞定
# 调用.encoding属性获取requests模块的编码办法 # 调用.apparent_encoding属性获取网页编码办法 # 将网页编码办法赋值给response.encoding resp.encoding = resp.apparent_encoding
成功获取到弹幕数据
信息提取
数据已经给成功的获取到,接下来我们要提取出所有的弹幕信息,
我们从获取到网站的相应信息后可以看出,所有的弹幕笔墨信息实在都是在
标签之内的
<d
p="221.05300,1,25,16777215,1638378040,0,a60c99c7,58346355162459136,10">太木呐了 二仙桥大爷</d>
以是我们选择利用正则提取。
# 获取所有评论内容content_list = re.findall('<d p=".?">(.?)</d>', resp.text)
我们利用函数将所有的弹幕数据存储在’B站弹幕.csv’文件中
if os.path.exists(comment_file_path): os.remove(comment_file_path)for item in content_list: with open(comment_file_path, 'a', encoding = 'utf-8')as fin: fin.write(item + '\n') print(item)print('-------------弹幕获取完毕!
-------------')
接下来便是对数据去重和去空处理了,然后随机抽取五条数据展示如下:
# 读取数据rcv_data = pd.read_csv('./B站弹幕.csv', encoding='gbk')# 抽样展示5条数据print(rcv_data.sample(5)) 精彩弹幕 538 一脸愉快 162 好活 661 买两箱,,买买买买 17 笑去世我了 哈哈哈 424 不忘初心
词频展示
文章评论涌现频率最高的前十个词分别如下:
# 词频设置all_words = [word for word in result.split(' ') if len(word) > 1 and word not in stop_words]wordcount = Counter(all_words).most_common(10) '''('哈哈哈', '大爷', '制作', '离谱', '一起', '惊惶失措', '二仙', 'sir', '卧槽', '一定')(207, 69, 27, 13, 13, 13, 12, 12, 12, 9)'''
我们利用结巴分词
末了利用stylecloud绘制俊秀的词云图展示
# 词云展示def visual_ciyun(): pic = './img.jpg' gen_stylecloud(text=result, icon_name='fas fa-archway', font_path='msyh.ttc', background_color='white', output_name=pic, custom_stopwords=stop_words )print('词云图绘制成功!
')
# -- coding: utf-8 --# Date: 2021/12/2 10:00# Author: 不卖萌的邓肯# wechat: 印象pythonimport requestsimport re, osimport jiebafrom wordcloud import WordCloudfrom imageio import imreadcomment_file_path = 'B站弹幕.csv'def spider_page(cid): url = f'http://comment.bilibili.com/{ cid}.xml' headers = { 'referer': 'xxxxx', 'User-Agent': 'xxxxx', 'cookie': "xxxxx" } resp = requests.get(url, headers = headers) # 调用.encoding属性获取requests模块的编码办法 # 调用.apparent_encoding属性获取网页编码办法 # 将网页编码办法赋值给response.encoding resp.encoding = resp.apparent_encoding print(resp.text) if resp.status_code == 200: # 获取所有评论内容 content_list = re.findall('<d p=".?">(.?)</d>', resp.text) if os.path.exists(comment_file_path): os.remove(comment_file_path) for item in content_list: with open(comment_file_path, 'a', encoding = 'utf-8')as fin: fin.write(item + '\n') print(item) print('-------------弹幕获取完毕!
-------------')def data_visual(): with open(comment_file_path, encoding='utf-8')as file: comment_text = file.read() wordlist = jieba.lcut_for_search(comment_text) new_wordlist = ' '.join(wordlist) mask = imread('img_1.png') wordcloud = WordCloud(font_path='msyh.ttc', mask=mask).generate(new_wordlist) wordcloud.to_file('picture_1.png')if __name__ == '__main__': cid = '451236101' print('正在解析,开始爬取弹幕中。。。。。') spider_page(cid) #data_visual()
本日禀享就到此结束啦!
有问题,评论区见~~