4.2Titanic罹难乘客预测

import pandas as pd

train=pd.read_csv('/Users/daqi/Documents/ipython/test/titanic/train.csv')
test=pd.read_csv('/Users/daqi/Documents/ipython/test/titanic/test.csv')

#先分别输出训练与测试数据的基本信息。这是一个好习惯,可以对数据的规模,各个特征的数据类型以及是否有缺失等,有一个总体的了解。
print(train.info())
print(test.info())
#按照我们之前对Titanic事件的经验,人工选取对预测有效的特征。
selected_features=['Pclass','Sex','Age','Embarked','SibSp','Parch','Fare']

X_train=train[selected_features]
X_test=test[selected_features]

y_train=train['Survived']

#通过我们之前对数据的总体观察,得知Embarked特征存在缺失值,需要补充。
print(X_train['Embarked'].value_counts())
print(X_test['Embarked'].value_counts())
#对于Embarked这种类型的特征,我们使用出现频率最高的特征值来填充,这也是相对可以减少引入误差的一种填充方法。
X_train['Embarked'].fillna('S',inplace=True)
X_test['Embarked'].fillna('S',inplace=True)

#而对于Age这种数值类型的特征,我们习惯使用求平均值或者中位数来填充缺失值,也是相对可以减少引入误差的一种填充方法。
X_train['Age'].fillna(X_train['Age'].mean(),inplace=True)
X_test['Age'].fillna(X_test['Age'].mean(),inplace=True)

X_test['Fare'].fillna(X_test['Fare'].mean(),inplace=True)
#重新对处理后的训练和测试数据进行查验,发现一切就绪。
X_train.info()
X_test.info()
#接下来便是采用DictVectorizer对特征向量化
from sklearn.feature_extraction import DictVectorizer
dict_vec=DictVectorizer(sparse=False)
X_train=dict_vec.fit_transform(X_train.to_dict(orient='record'))
dict_vec.feature_names_

X_test=dict_vec.fit_transform(X_test.to_dict(orient='record'))
from sklearn.ensemble import RandomForestClassifier
#使用默认配置初始化from sklearn.ensemble import RandomForestClassifier
rfc=RandomForestClassifier()

#从流行工具包xgboost导入XGBClassifier用于处理分类预测问题
from xgboost import XGBClassifier
xgbc=XGBClassifier()

from sklearn.cross_validation import cross_val_score
#使用5折交叉验证的方法在训练集上分别对默认配置的RandomForestClassifier以及XGBClassifier进行性能评估,并获得平均分类精确性的得分
cross_val_score(rfc,X_train,y_train,cv=5).mean()

0.8081393027203827

cross_val_score(xgbc,X_train,y_train,cv=5).mean()

0.81824559798311003

#使用默认配置的RandomForestClassifier进行预测操作
rfc.fit(X_train,y_train)
rfc_y_predict=rfc.predict(X_test)
rfc_submission=pd.DataFrame({'PassengerId':test['PassengerId'],'Survived':rfc_y_predict})
#将默认配置的RandomForestClassifier对测试数据的预测结果存储在文件rfc_submission.csv中。
rfc_submission.to_csv('/Users/daqi/Documents/ipython/test/titanic/rfc_submission.csv',index=False)

#使用默认配置的XGBClassifier进行预测
xgbc.fit(X_train,y_train)
xgbc_y_predict=xgbc.predict(X_test)
#将默认配置的XGBClassifier对测试数据的预测结果存储在文件xgbc_submission.csv中。
xgbc_submission=pd.DataFrame({'PassengerId':test['PassengerId'],'Survived':xgbc_y_predict})
xgbc_submission.to_csv('/Users/daqi/Documents/ipython/test/titanic/xgbc_submission.csv',index=False)

#使用并行网格搜索的方式寻找更好的超参数组合,以期待进一步提高XGBClassifier的预测性能
from sklearn.grid_search import GridSearchCV
params={'max_depth':list(range(2,7)),'n_estimators':list(range(100,1100,200)),'learning_rate':[0.05,0.1,0.25,0.5,1.0]}
xgbc_best=XGBClassifier()
gs=GridSearchCV(xgbc_best,params,n_jobs=-1,cv=5,verbose=1)
gs.fit(X_train,y_train)
#查验优化之后的XGBClassifier的超参数配置以及交叉验证的准确性
print(gs.best_score_)
print(gs.best_params_)
#使用经过优化超参数配置的XGBClassifier对测试数据的预测结果存储在文件xgbc_best_submission.csv中。
xgbc_best_y_predict=gs.predict(X_test)
xgbc_best_submission=pd.DataFrame({'PassengerId':test['PassengerId'],'Survived':xgbc_best_y_predict})
xgbc_best_submission.to_csv('/Users/daqi/Documents/ipython/test/titanic/xgbc_best_submission.csv',index=False)

提交结果:着重注意的是,在今后的实战中,一定要严格遵守竞赛数据中所提供的样例提交文件的格式。

测评结果:原本以为经过超参数搜索和优化之后的模型可以取得更好的预测性能,但是事实恰恰相反。在今后的实践中也有可能出现这样的情况,究其原因是因为无法保证现实数据都来源于同一分布,因此尽管模型经过交叉验证和超参数搜索等步骤处理,也不能保证在所有情况下都能取得更高的性能。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,670评论 5 460
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,928评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,926评论 0 320
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,238评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,112评论 4 356
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,138评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,545评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,232评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,496评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,596评论 2 310
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,369评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,226评论 3 313
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,600评论 3 299
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,906评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,185评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,516评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,721评论 2 335

推荐阅读更多精彩内容