背景:某金融公司新推出的理财产品,预测客户是否会接受新的产品,并提高产品的销售量。
数据:根据公司提供的用户数据,包括职业、婚姻状态房产、年龄、违约情况等数据。与近期购买的详细资料,包括金额、购买频率,时间等相关数据。
目标:根据客户的信息,将客户进行分类打上标签,预测该用户是否会购买理财产品以及是否需要对该用户进行主动销售。
【一】思路&流程
对客户进行精准营销可以提高产品的销售。那么对产品分析转换为对客户的分析。
——考虑客户是否能接受新的产品,可以从两方面着手分析。
1>依据往期客户数据进行是否购买预测,二分类回归问题。
2>根据客户价值进行划分,对高价值客户加大营销力度。
根据结果可以对客户进行分群划分,降低营销成本。
【二】数据处理
1>数据探索
IO1 = r'C:\Users\Ziger\Desktop\Yian_Cinformation1782.csv'
IO2= r'C:\Users\Ziger\Desktop\Yian_details1782.csv'
data1 = pd.read_csv(IO, header=None, names=(['id','name','age','job','marital','education','default','balance','housing','loan','contact','day','month','duration','campaign','pdays','previous','poutcome','address','y'])
data2 = pd.read_csv(IO2)
根据业务常识,客户基本信息删除如ID,姓名等无关维度。
还款明细提取总计金额,购买时间,购买产品数等维度。
2>清洗数据
客户资料文本数据较多,去除缺失的数据以免影响结果。
3>数据处理
文本数值化 ,本次基本信息中主要处理的是职业,学历,地址等文本信息。
data1.groupby(['job']).describe()
根据业务经验将对应的职业划分打分。
def Replace (X,columns):
a = X.groupby([columns],as_index=False)[columns].agg({'cnt':'count'})
for i in a[columns]:
X[columns] = X[columns].replace(i,a[(a[columns]== i )].index.tolist()[0])
return (X)
def Len(X,columns):
for i in X[columns]:
X[columns] = X[columns].replace(i,len(i))
return (X)
将文本转化为数值
def Sigmoid (X):
return (1.0 / (1 + np.exp(-float(X)))
数据归一化
4>相关性分析
数据处理之后,选择相关性最强的前17位维度进行分析观测
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns
corrmat = data.corr()
k = 17
plt.figure(figsize=(12,9))
cols = corrmat.nlargest(k, 'y')['y'].index
cm = np.corrcoef(data[cols].values.T)
sns.set(font_scale=1.25,font='SimHei')
hm = sns.heatmap(cm, cbar=True, annot=True, square=True, fmt='.2f', cmap='YlOrBr_r',annot_kws={'size': 10}, yticklabels=cols.values, xticklabels=cols.values)
plt.show()
5>提取维度
data1客户分析,将相关性较低的维度数据删除。
data2贷款记录,提取R,F,M。
import datetime as dt
now = dt.datetime(2017,11,14)
#查看交易最早-最晚日期
print(data2['Borrowing_date'].min())
print(data2['Borrowing_date'].max())
#构造交易时间间隔变量 hist
data2['hist'] = now - df['Borrowing_date']
data2['hist'].astype('timedelta64[D]')
data2['hist'] = data2['hist'] / np.timedelta64(1,'D')
data2.head()
#生成R F M 特征变量 agg()分组函数
customer = data2.groupby('customer_id').agg(['hist':'min', #Recency
'customer_id':'count', #Frequency
'tran_amount':'sum']) #Monetary
#对变量重命名
customer.rename(columns = {'hist':'recency'
'customer_id':'frequency'
'tran_amount':'monetary'},inplace = True)
6>特征工程
验衍生出新的维度。
a. 统计每个客户使用的不同产品量,1列(目的:分析产品总数与是否购买关联)
b.统计每个客户近期的产品购买频率。(目的:分析客户的近期的资金需求量)
c. 统计客户借款金额与还款的差值。(目的:分析客户贷款产品的需求度)
.........等
对已有数据进行观测分析
eg:分析借贷时间可以针对销售时间进行调整。
plt.subplots(figsize=(12,9))
sns.countplot(x='month',,hue='day',data=data1)
7>特征筛选
本次维度较少,但是为了提高模型预测准确率,对数据进行特征整合。
考虑因子分析与主成分分析,根据模型准确率选择使用。
【三】RMF分析
1>用SPSS封装模型进行预测
2>K-Means聚类算法对客户数据进行分群
from sklearn.externals import joblib
from sklearn.cluster import KMeans
k=5
kmodel=KMeans(n_clusters=k,n_jobs=4)
kmodel.fit(customer)
r1=pd.Series(kmodel.labels_).value_counts()
r2=pd.DataFrame(kmodel.cluster_centers_)
r3=pd.Series(['group1','group2','group3','group4','group5',])
r=pd.concat([r3,r1,r2],axis=1)
r.columns=['聚类类别','聚类个数']+list(customer.columns)
r.to_csv(KMeans_result,encoding = 'utf_8_sig',index=False)
通过观测客户数及聚类中心,划分客户分类。
labels = np.array(list(customer.columns))
dataLenth = 5
r4=r2.T
r4.columns=list(customer.columns)
fig = plt.figure()
y=[]
for x in list(customer.columns):
dt= r4[x]
dt=np.concatenate((dt,[dt[0]]))
y.append(dt)
ax = fig.add_subplot(111, polar=True)
angles = np.linspace(0, 2*np.pi, dataLenth, endpoint=False)
angles = np.concatenate((angles, [angles[0]]))
ax.plot(angles, y[0], 'b-', linewidth=2)
ax.plot(angles, y[1], 'r-', linewidth=2)
ax.plot(angles, y[2], 'g-', linewidth=2)
ax.plot(angles, y[3], 'y-', linewidth=2)
ax.plot(angles, y[4], 'm-', linewidth=2)
plt.rcParams['font.sans-serif']=['SimHei']
ax.legend(r3,loc=1)
ax.set_thetagrids(angles * 180/np.pi, labels, fontproperties="SimHei")
ax.set_title("Customer_loan", va='bottom', fontproperties="SimHei")
ax.grid(True)
plt.show()
3>综合分析
根据2次结果综合考虑,将5类客户打上标签,划分价值群。
【四】建模预测
二分类问题考虑逻辑回归与随机森林进行训练。
交叉验证
from sklearn import cross_validation
X = data1
Y1 = X['y']
X1 = X.drop(['y'],axis = 1)
X1_train, X1_test, y1_train, y1_test = \
cross_validation.train_test_split( X1, Y1, test_size=0.3, random_state=0)
设置early stop round 提前停止迭代参数,防止过拟合,其他参数采用随机搜索寻优。
def LR(X_train, X_test, y_train, y_test):
from sklearn.linear_model import LogisticRegression
lor = LogisticRegression(penalty='l1',C=100,multi_class='ovr')
lor.fit(X_train, y_train)
predicted= lor.predict(X_test)
score = accuracy_score(y_test, predicted)
return (score)
def RF(X_train, X_test, y_train, y_test):
from sklearn.ensemble import RandomForestClassifier
model= RandomForestClassifier(n_estimators=100)
model.fit(X_train, y_train)
predicted= model.predict(X_test)
score = accuracy_score(y_test, predicted)
return (score)
优化参数,提高预测的准确率。
【五】总结分析
1>销售策略
①考虑模型预测结果,对预测会购买的客户进行营销。
②RFM分群后,针对资金量高,购买频繁的高价值客户进行定向宣传。
③考虑特殊维度的影响力,改变销售策略。(如:贷款热门时间段,贷款人年龄)
2>不足
①
②数据缺失值与异常值较少,但本身维度较少,特征工程中选择面较少。
③