浅析豆瓣电影TOP250榜单——C3 数据处理

核对数据收集阶段保存的douban_top250_demo.csv文件,确认与预期效果一致后,保存为douban_top250.csv用于数据处理。
这样可以避免在数据处理阶段反复向豆瓣服务器发出数据请求,被反爬虫机制屏蔽。

数据处理、分析和展示阶段,我们主要任务是格式化数据,根据处理过的数据来制作相应的分析图像。需要导入以下几个python库:

import re
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import matplotlib
from PIL import Image
from collections import Counter
from wordcloud import WordCloud, ImageColorGenerator
from sklearn.pipeline import Pipeline
from sklearn.preprocessing import PolynomialFeatures
from sklearn import linear_model

开始处理数据,大致操作思路如下:
先打开文件,再读取整个文件,以逗号分割为列表对象,然后转化为250×7的ndarray对象,对应7列数据,每列250个元素,最后将其转换为DataFrame对象并加上每列的列名,以方便后续调用。

with open('douban_top250.csv') as f:  # 打开文件
    text_f = f.read().strip()  # 读取文件得到str型文本
list_f = re.split('[,\n]', text_f)  # 分割str文本并转换为list型
array_f = np.array(list_f).reshape(250, 7)  # 转换为250×7的数组
columns_df_f = ['电影名称', '评分', '评分人数', '上映年份', '国家', '类型', '短评']  # 列名
df_f = pd.DataFrame(array_f, columns=columns_df_f)  # 转为DataFrame类
print(df_f)

打印得到如下结果:

  电影名称   评分    评分人数  上映年份   国家    类型  \
0 肖申克的救赎  9.6  833069  1994    美国       犯罪 剧情   
1 这个杀手不太冷  9.4  799185  1994 法国      剧情 动作 犯罪   
2 霸王别姬  9.5  595660  1993   中国大陆 香港   剧情 爱情 同性   
3 阿甘正传  9.4  684515  1994  美国   剧情 爱情   
4 美丽人生  9.5  397936  1997  意大利 剧情 喜剧 爱情 战争   
...      ...      ...   ...    ...   ...    ...
247 彗星来的那一夜  8.3  148590  2013   美国 英国 科幻 悬疑 惊悚   
248 黑鹰坠落  8.5  100794  2001  美国    动作 历史 战争   
249 假如爱有天意  8.2  215610  2003  韩国      剧情 爱情   
               短评  
0             希望让人自由。  
1         怪蜀黍和小萝莉不得不说的故事。  
...              ...
248       还原真实而残酷的战争。  
249          琼瑶阿姨在韩国的深刻版。  
[250 rows x 7 columns]

片名汇总

DataFrame类型的数据在提取列信息方面十分方便。
汇总榜单上所有电影的名字只需将df_f对象的'电影名称'元素赋给变量即可。

titles = df_f['电影名称']  # 提取片名列  
print(titles)

打印结果如下:

0         肖申克的救赎
1        这个杀手不太冷
2           霸王别姬
3           阿甘正传
4           美丽人生
5           千与千寻
     ...
244         廊桥遗梦
245         罪恶之城
246         两小无猜
247      彗星来的那一夜
248         黑鹰坠落
249       假如爱有天意
Name: 电影名称, Length: 250, dtype: object

制片国家及影片类型信息处理

处理国家名及影片类型信息的方法与处理片名的方法大同小异。

countries = df_f['国家']  # 提取数组中的国家名数据  
print(countries)

这里需要注意观察返回的结果中的:

2         中国大陆 香港

可以看出存在一部影片有多个制作公司的情况,如果要计数则需要解压元素。

list_countries = ' '.join(countries).split()  # 由于存在一部电影有多个制片国家,需要解压出。
print(list_countries)

得到列表类的结果如下:

['美国', '法国', '中国大陆', '香港', '美国', '意大利', ... ,'美国', '英国', '美国', '韩国']

对列表元素进行计数,使用内置的collections库的Counter将列表转化为字典,其中key为原列表中的元素,value为该元素在列表中出现的次数。

dict_countries0 = Counter(list_countries)  # 转换成字典类并计数
print(dict_countries0)

Counter({'美国': 143, '英国': 34, '日本': 29, '法国': 27,...,'博茨瓦纳': 1, '爱尔兰': 1})

这样也可以很容易得到总共有多少个不同国家出现:

total_countries = len(dict_countries0)  # 字典长度,即出现的不同国家个数
print(total_countries)

31

num_countries_show = 12  # 控制参数,显示国家的个数,其余用“其他”来概括
dict_countries = list(dict_countries0.most_common(num_countries_show))  # 提取前12个
countries_rest = dict_countries0.most_common()[num_countries_show:]  # 第12个以后合并为一项
size = [i[1] for i in dict_countries]  #
size.append(sum(i[1] for i in countries_rest))
labels = [i[0] for i in dict_countries]
labels.append('其他')

榜单上影片的类型的数据处理与制片国家数据处理类似。

genres = df_f['类型']
list_genres = ' '.join(genres).split()
dict_genres0 = Counter(list_genres)
total_genres = len(dict_genres0)
num_genres_show = 14  # 控制参数,显示类型的个数,其余用“其他”来概括
dict_genres = list(dict_genres0.most_common(num_genres_show))
genres_rest = dict_genres0.most_common()[num_genres_show:]
size = [i[1] for i in dict_genres]
size.append(sum(i[1] for i in genres_rest))
labels = [i[0] for i in dict_genres]
labels.append('其他')

上榜年份信息处理

在年份分析部分除了我们需要注意上榜年份为零的数据是不显示的,需要我们另外添加。

date_movie = df_f['上映年份']
min_date = int(min(date_movie))
max_date = int(max(date_movie))
range_date = range(min_date, max_date + 1)  # 上榜电影年份范围
dict_date0 = Counter(date_movie)  # 转换为年份与对应出现次数的字典
k = [int(key) for key in dict_date0.keys()]  # 构造上榜年份列表
list_date0 = {key: dict_date0[str(key)] if key in k else 0 for key in range_date}  # 以零填充没有上榜的年份的值
dict_date = Counter(list_date0)  # 转换为字典并计数
keys_date, values_date = list(list_date.keys()), list(list_date.values())

评分、评论人数处理

抓取得到的评分、评论人数的数据可直接调用,处理方法相对比较简单:

rate_movie = df_f['评分']
index_rate = rate_movie.index + 1  # 序号即排名(从1开始)
values_rate = rate_movie.values  # 得到评分值列表

comments_count = df_f['评分人数']
values_comments = comments_count.values


上一章: C2 数据收集

下一章: C4 分析&展示

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,088评论 5 459
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,715评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,361评论 0 319
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,099评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 60,987评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,063评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,486评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,175评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,440评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,518评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,305评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,190评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,550评论 3 298
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,880评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,152评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,451评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,637评论 2 335

推荐阅读更多精彩内容