一、配景先容
近来一段时间,刘畊宏真是火出了天际,引起一股全民健身的高潮,究竟锻炼身材,是个功德!
针对此热门事故,我用Python的爬虫和感情分析技能,针对小破站的弹幕数据,分析了浩繁网友弹幕的舆论导向,下面我们来看一下,是怎样实现的分析过程。
二、代码解说-爬虫部分
2.1 分析弹幕接口
起首分析B站弹幕接口。
经太过析,得到的弹幕地点有两种:
第一种:http://comment.bilibili.com/{cid}.xml
第二种:https://api.bilibili.com/x/v1/dm/list.so?oid={cid}
这两种返回的效果同等!但都不全,都是只有部分弹幕!
以B站视频 https://www.bilibili.com/video/BV1Pa411v7vg 为例,查察网页源代码,可以找到对应的cid为574147025,以是该视频对应的弹幕接口地点是:http://comment.bilibili.com/574147025.xml
既然如许,就好办了,开始撸代码!
2.2 解说爬虫代码
起首,导入必要用到的库:
import re # 正则表达式提取文本import requests # 爬虫发送哀求from bs4 import BeautifulSoup as BS # 爬虫剖析页面import timeimport pandas as pd # 存入csv文件import os然后,向视频地点发送哀求,剖析出cid号:
r1 = requests.get(url=v_url, headers=headers)html1 = r1.textcid = re.findall('cid=(.*?)&aid=', html1)[0] # 获取视频对应的cid号print('该视频的cid是:', cid)根据cid号,拼出xml接口地点,并再次发送哀求:
danmu_url = 'http://comment.bilibili.com/{}.xml'.format(cid) # 弹幕地点print('弹幕地点是:', danmu_url)r2 = requests.get(danmu_url)剖析xml页面:<d>标签的文本内容为弹幕,<d>标签内p属性值(按逗号分隔)的第四个字段是时间戳:
soup = BS(html2, 'xml')danmu_list = soup.find_all('d')print('共爬取到{}条弹幕'.format(len(danmu_list)))video_url_list = [] # 视频地点danmu_url_list = [] # 弹幕地点time_list = [] # 弹幕时间text_list = [] # 弹幕内容for d in danmu_list: data_split = d['p'].split(',') # 按逗号分隔 temp_time = time.localtime(int(data_split[4])) # 转换时间格式 danmu_time = time.strftime("%Y-%m-%d %H:%M:%S", temp_time) video_url_list.append(v_url) danmu_url_list.append(danmu_url) time_list.append(danmu_time) text_list.append(d.text) print('{}:{}'.format(danmu_time, d.text))
生存时应注意,为了制止多次写入csv标题头,像如许:
这里,我写了一个处理惩罚逻辑,各人看解释,应该能明白:
if os.path.exists(v_result_file): # 如果文件存在,不需写入字段标题 header = Noneelse: # 如果文件不存在,分析是第一次新建文件,需写入字段标题 header = ['视频地点', '弹幕地点', '弹幕时间', '弹幕内容']df.to_csv(v_result_file, encoding='utf_8_sig', mode='a+', index=False, header=header) # 数据生存到csv文件必要注意的是,encoding参数赋值为utf_8_sig,不然csv内容大概会产生乱码,制止踩坑!
三、代码解说-感情分析部分
3.1 团体思绪
针对感情分析需求,我紧张做了三个步调的分析工作:
用SnowNLP给弹幕内容打标:积极、悲观,并统计占比环境
用jieba.analyse分词,并统计top10高频词
用WordCloud绘制词云图
起首,导入csv数据,并做数据洗濯工作,不再赘述。
下面,正式进入感情分析代码部分:
3.2 感情分析打标
感情分析盘算得分值、分类打标,并画出饼图。
# 感情判定for comment in v_cmt_list: tag = '' sentiments_score = SnowNLP(comment).sentiments if sentiments_score < 0.5: tag = '悲观' neg_count += 1 elif sentiments_score > 0.5: tag = '积极' pos_count += 1 else: tag = '中性' mid_count += 1 score_list.append(sentiments_score) # 得分值 tag_list.append(tag) # 判定效果df['感情得分'] = score_listdf['分析效果'] = tag_list这里,我设定感情得分值小于0.5为悲观,大于0.5为积极,即是0.5为中性。(这个分边界,没有同一尺度,根据数据分布环境和分析履历自己设定分边界即可)
感情判定效果:
画出占比饼图的代码:
grp = df['分析效果'].value_counts()print('正负面批评统计:')print(grp)grp.plot.pie(y='分析效果', autopct='%.2f%%') # 画饼图plt.title('刘畊宏弹幕_感情分布占比图')plt.savefig('刘畊宏弹幕_感情分布占比图.png') # 生存图片
饼图效果:
从占比效果来看,大部分网友照旧很认可刘畊宏的。
3.3 统计top10高频词
代码如下:
# 2、用jieba统计弹幕中的top10高频词keywords_top10 = jieba.analyse.extract_tags(v_cmt_str, withWeight=True, topK=10)print('top10关键词及权重:')pprint(keywords_top10)这里必要注意,在调用jieba.analyse.extract_tags函数时,要导入的是import jieba.analyse 而不是 import jieba
统计效果为:(分为10组关键词及其权重,权重按倒序排序)3.4 绘制词云图
注意别踩坑:
想要通过原始图片的形状天生词云图,原始图片肯定要白色配景(着实没有的话,PS修图修一个吧),否则天生的是满屏词云!!
try: stopwords = v_stopwords # 停用词 backgroud_Image = np.array(Image.open('刘畊宏_配景图.png')) # 读取配景图片 wc = WordCloud( background_color="white", # 配景颜色 width=1500, # 图宽 height=1200, # 图高 max_words=1000, # 最多字数 font_path='/System/Library/Fonts/SimHei.ttf', # 字体文件路径,根据现实环境(Mac)更换 # font_path="C:\Windows\Fonts\simhei.ttf", # 字体文件路径,根据现实环境(Windows)更换 stopwords=stopwords, # 停用词 mask=backgroud_Image, # 配景图片 ) jieba_text = " ".join(jieba.lcut(v_str)) # jieba分词 wc.generate_from_text(jieba_text) # 天生词云图 wc.to_file(v_outfile) # 生存图片文件 print('词云文件生存乐成:{}'.format(v_outfile))except Exception as e: print('make_wordcloud except: {}'.format(str(e)))
得到的词云图,和原始配景图对比一下:
3.5 感情分析结论
- 打标效果中,积极和中性评价占约72%,远宏大于悲观评价!
- top10关键词统计效果中,"哈哈哈"、"打卡"、"加油"、"666"等好评词汇占据多数!
- 词云图中,"哈哈"、"打卡"、"锋利"、"加油"等好评词看上去更大(词频高)!
综上所述,经分析"刘畊宏"相关弹幕,得出结论:
浩繁网友对刘畊宏的评价都很高,究竟不但领导全面健身如许正能量的事,照旧杰伦的好兄弟,谁能不爱呢!
给他点赞!!
四、同步演示视频
演示代码实行过程:
https://www.zhihu.com/zvideo/1506383713600036864
by 马哥python说 |