第二章 pandas基础

参考:https://datawhalechina.github.io/joyful-pandas/build/html/%E7%9B%AE%E5%BD%95/ch2.html#id7
主要介绍读取csv,excel.txt文件

读取csv:

df_csv = pd.read_csv("data/my_csv.csv")
df_csv
'''
    col1    col2    col3    col4    col5
0   2   a   1.4 apple   2020/1/1
1   3   b   3.4 banana  2020/1/2
2   6   c   2.5 orange  2020/1/5
3   5   d   3.2 lemon   2020/1/7
'''

读取txt

df_txt = pd.read_table('data/my_table.txt')
df_txt
'''
    col1    col2    col3    col4
0   2   a   1.4 apple 2020/1/1
1   3   b   3.4 banana 2020/1/2
2   6   c   2.5 orange 2020/1/5
3   5   d   3.2 lemon 2020/1/7
'''

读取excel

df_excel = pd.read_excel('data/my_excel.xlsx')
df_excel
'''
   col1 col2  col3    col4      col5
0     2    a   1.4   apple  2020/1/1
1     3    b   3.4  banana  2020/1/2
2     6    c   2.5  orange  2020/1/5
3     5    d   3.2   lemon  2020/1/7
'''

一些公共参数

  • header=None: 第一行不作为列名,即第一行也作为数据
  • index_col: 把某一列或几列作为索引
  • usecols: 读取列的集合,默认读取所有的列
  • parse_dates: 表示需要转化为时间的列
  • nrows: 读取的数据行数
pd.read_table('data/my_table.txt', header=None)
'''
      0     1     2                3
0  col1  col2  col3             col4
1     2     a   1.4   apple 2020/1/1
2     3     b   3.4  banana 2020/1/2
3     6     c   2.5  orange 2020/1/5
4     5     d   3.2   lemon 2020/1/7

'''
pd.read_csv('data/my_csv.csv', index_col=['col1', 'col2'])
'''
           col3    col4      col5
col1 col2                        
2    a      1.4   apple  2020/1/1
3    b      3.4  banana  2020/1/2
6    c      2.5  orange  2020/1/5
5    d      3.2   lemon  2020/1/7
'''
pd.read_table('data/my_table.txt', usecols=['col1', 'col2']) #读取前两列
'''
   col1 col2
0     2    a
1     3    b
2     6    c
3     5    d
'''
pd.read_csv('data/my_csv.csv', parse_dates=['col5'])
'''
   col1 col2  col3    col4       col5
0     2    a   1.4   apple 2020-01-01
1     3    b   3.4  banana 2020-01-02
2     6    c   2.5  orange 2020-01-05
3     5    d   3.2   lemon 2020-01-07
'''
pd.read_excel('data/my_excel.xlsx', nrows=2) #读取前两行
'''
   col1 col2  col3    col4      col5
0     2    a   1.4   apple  2020/1/1
1     3    b   3.4  banana  2020/1/2
'''

非公共参数

read_table的参数sep:使用户可以自定义分割符号,进行 txt 数据的读取

注意:sep是正则表达式,同时需要指定引擎为python。

pd.read_table('data/my_table_special_sep.txt',
               sep=' \|\|\|\| ', engine='python')
'''
  col1               col2
0   TS  This is an apple.
1   GQ    My name is Bob.
2   WT         Well done!
3   PT    May I help you?
'''

2. 数据写入

一般在数据写入中,最常用的操作是把 index 设置为 False ,特别当索引没有特殊意义的时候,这样的行为能把索引在保存的时候去除。特别是默认读取时,会自动加上0,1,2,3....的索引,如上面几个例子,设为false之后,就可以不保存这些索引了。

保存为csv或xlsx:

df_csv.to_csv('data/my_csv_saved.csv', index=False)
df_excel.to_excel('data/my_excel_saved.xlsx', index=False)

保存为txt

pandas 中没有定义 to_table 函数,但是 to_csv 可以保存为 txt 文件,并且允许自定义分隔符,常用制表符 \t 分割:

df_txt.to_csv('data/my_txt_saved.txt', sep='\t', index=False)

如果想要把表格快速转换为 markdownlatex 语言,可以使用 to_markdownto_latex 函数,此处需要安装 tabulate 包。

print(df_csv.to_markdown())
print(df_csv.to_latex())

二、基本数据结构

pandas 中具有两种基本的数据存储结构,存储一维 valuesSeries 和存储二维 valuesDataFrame,在这两种结构上定义了很多的属性和方法。

1. Series(一维)

定义

由四个部分组成,分别是序列的值 data 、索引 index 、存储类型 dtype 、序列的名字 name 。其中,索引也可以指定它的名字,默认为空。

s = pd.Series(data = [100, 'a', {'dic1':5}],
              index = pd.Index(['id1', 20, 'third'], name='my_idx'),
              dtype = 'object', #代表了一种混合类型,正如例子中存储了整数、字符串以及 Python 的字典数据结构。
              name = 'my_name')
s
'''
my_idx
id1              100
20                 a
third    {'dic1': 5}
Name: my_name, dtype: object
'''

取出属性:

s.values #array([100, 'a', {'dic1': 5}], dtype=object)
s.index #Index(['id1', 20, 'third'], dtype='object', name='my_idx')
s.dtype #dtype('O')
s.name #my_name
s.shape # .shape 可以获取序列的长度:(3,)

如果想要取出单个索引对应的值,可以通过 [index_item] 可以取出。

s['third'] #{'dic1': 5}

2. DataFrame

DataFrameSeries 的基础上增加了列索引,一个数据框可以由二维的 data 与行列索引来构造:

定义

不常用的定义方式:按行元素定义

data = [[1, 'a', 1.2], [2, 'b', 2.2], [3, 'c', 3.2]]
df = pd.DataFrame(data = data,
                  index = ['row_%d'%i for i in range(3)],
                  columns=['col_0', 'col_1', 'col_2'])
 '''
       col_0 col_1  col_2
row_0      1     a    1.2
row_1      2     b    2.2
row_2      3     c    3.2
 '''

常用的定义方式:采用从列索引名到数据的映射来构造数据框,同时再加上行索引:

df = pd.DataFrame(data = {'col_0': [1,2,3], 'col_1':list('abc'),
                           'col_2': [1.2, 2.2, 3.2]},
                   index = ['row_%d'%i for i in range(3)])
'''
       col_0 col_1  col_2
row_0      1     a    1.2
row_1      2     b    2.2
row_2      3     c    3.2
'''

取出值:

由于这种映射关系,在 DataFrame 中可以用 [col_name][col_list] 来取出相应的列与由多个列组成的表,结果分别为 SeriesDataFrame

df['col_0']
'''
会显示行索引
row_0    1
row_1    2
row_2    3
Name: col_0, dtype: int64
'''
df[['col_0', 'col_1']]
'''
       col_0 col_1
row_0      1     a
row_1      2     b
row_2      3     c
'''

Series 类似,在数据框中同样可以取出相应的属性:

df.values
'''
array([[1, 'a', 1.2],
       [2, 'b', 2.2],
       [3, 'c', 3.2]], dtype=object)
'''
df.index
'''
Index(['row_0', 'row_1', 'row_2'], dtype='object')
'''
df.columns #Index(['col_0', 'col_1', 'col_2'], dtype='object')
df.dtypes # 返回的是值为相应列数据类型的Series
'''
col_0      int64
col_1     object
col_2    float64
dtype: object
'''
df.shape #(3, 3)

转置

通过 .T 可以把 DataFrame 进行转置:

df.T
'''
      row_0 row_1 row_2
col_0     1     2     3
col_1     a     b     c
col_2   1.2   2.2   3.2

'''

三、常用基本函数

练习集:

df = pd.read_csv('data/learn_pandas.csv')
df = df[df.columns[:7]] #只取前7列

1. 汇总函数

head, tail 函数

分别表示返回表或者序列的前 n 行和后 n 行,其中 n 默认为5:

df.head(2)
df.tail(3)

info, describe函数

分别返回表的 信息概况 和表中 数值列对应的主要统计量 :

df.info() #信息概况
'''
<class 'pandas.core.frame.DataFrame'>
RangeIndex: 200 entries, 0 to 199
Data columns (total 7 columns):
 #   Column    Non-Null Count  Dtype  
---  ------    --------------  -----  
 0   School    200 non-null    object 
 1   Grade     200 non-null    object 
 2   Name      200 non-null    object 
 3   Gender    200 non-null    object 
 4   Height    183 non-null    float64
 5   Weight    189 non-null    float64
 6   Transfer  188 non-null    object 
dtypes: float64(2), object(5)
memory usage: 11.1+ KB
'''
df.describe() #数值列对应的主要统计量
'''
           Height      Weight
count  183.000000  189.000000
mean   163.218033   55.015873
std      8.608879   12.824294
min    145.400000   34.000000
25%    157.150000   46.000000
50%    161.900000   51.000000
75%    167.500000   65.000000
max    193.900000   89.000000
'''

更全面的数据汇总

info, describe 只能实现较少信息的展示,如果想要对一份数据集进行全面且有效的观察,特别是在列较多的情况下,推荐使用 pandas-profiling 包,它将在第十一章被再次提到。

2. 特征统计函数

SeriesDataFrame 上定义了许多统计函数,最常见的是 sum, mean, median, var, std, max,min 。例如,选出身高和体重列进行演示:

df_demo = df[['Height', 'Weight']]
df_demo.mean()#平均值
'''
Height    163.218033
Weight     55.015873
dtype: float64
'''
df_demo.max()
'''
Height    193.9
Weight     89.0
dtype: float64
'''

此外,需要介绍的是 quantile, count, idxmax 这三个函数,它们分别返回的是分位数、非缺失值个数、最大值对应的索引:

df_demo.quantile(0.75)
'''
Height    167.5
Weight     65.0
Name: 0.75, dtype: float64
'''
df_demo.count() #缺失值:数值为NaN
'''
Height    183
Weight    189
dtype: int64
'''
df_demo.idxmax() # 最大值的索引
'''
Height    193
Weight      2
dtype: int64
'''

上面这些所有的函数,由于操作后返回的是标量,所以又称为聚合函数,它们有一个公共参数 axis ,默认为0代表逐列聚合,如果设置为1则表示逐行聚合:

df_demo.mean(axis=1).head() # 前五行的平均值;在这个数据集上体重和身高的均值并没有意义
'''
0    102.45
1    118.25
2    138.95
3     41.00
4    124.00
'''

3. 唯一值函数

unique函数和nunique函数

分别得到其唯一值组成的列表和唯一值的个数:

df['School'].unique()
'''
array(['Shanghai Jiao Tong University', 'Peking University',
       'Fudan University', 'Tsinghua University'], dtype=object)
'''
df['School'].nunique() #4  4个唯一值

value_counts

得到唯一值和其对应出现的频数

df['School'].value_counts()
'''
Tsinghua University              69
Shanghai Jiao Tong University    57
Fudan University                 40
Peking University                34
Name: School, dtype: int64
'''

drop_duplicates

其中的关键参数是 keep ,默认值 first 表示每个组合保留第一次出现的所在行, last 表示保留最后一次出现的所在行, False 表示把所有重复组合所在的行剔除。

df_demo = df[['Gender', "Transfer", "Name"]]
df_demo.drop_duplicates(['Gender', 'Transfer']) #默认保留第一次出现的行
'''
    Gender Transfer            Name
0   Female        N    Gaopeng Yang
1     Male        N  Changqiang You
12  Female      NaN        Peng You
21    Male      NaN   Xiaopeng Shen
36    Male        Y    Xiaojuan Qin
43  Female        Y      Gaoli Feng
'''
df_demo.drop_duplicates(['Gender', 'Transfer'], keep='last') #保留最后一次出现的所在行
'''
     Gender Transfer            Name
147    Male      NaN        Juan You
150    Male        Y   Chengpeng You
169  Female        Y   Chengquan Qin
194  Female      NaN     Yanmei Qian
197  Female        N  Chengqiang Chu
199    Male        N     Chunpeng Lv
'''
df_demo.drop_duplicates(['Name', 'Gender'],
                        keep=False).head() # 保留只出现过一次的性别和姓名组合
'''
   Gender Transfer            Name
0  Female        N    Gaopeng Yang
1    Male        N  Changqiang You
2    Male        N         Mei Sun
4    Male        N     Gaojuan You
5  Female        N     Xiaoli Qian
'''
df['School'].drop_duplicates() # 在Series上也可以使用
'''
0    Shanghai Jiao Tong University
1                Peking University
3                 Fudan University
5              Tsinghua University
Name: School, dtype: object
'''

duplicateddrop_duplicates 的功能类似,但前者返回了是否为唯一值的布尔列表,其 keep 参数与后者一致。其返回的序列,把重复元素设为 True ,否则为 Falsedrop_duplicates 等价于把 duplicatedTrue 的对应行剔除。

df_demo.duplicated(['Gender', 'Transfer']).head()
'''
0    False
1    False
2     True
3     True
4     True
dtype: bool
'''
df_demo.duplicated(['Gender', 'Transfer'],keep='last').head()
'''
0    True
1    True
2    True
3    True
4    True
'''
df['School'].duplicated().head() # 在Series上也可以使用
'''
0    False
1    False
2     True
3    False
4     True
Name: School, dtype: bool
'''

4. 替换函数

一般而言,替换操作是针对某一个列进行的,因此下面的例子都以 Series 举例。

pandas 中的替换函数可以归纳为三类:映射替换、逻辑替换、数值替换。

映射替换 replace

映射替换包含 replace 方法、第八章中的 str.replace 方法以及第九章中的 cat.codes 方法,此处介绍 replace 的用法。

replace 中,可以通过字典构造,或者传入两个列表来进行替换:

df['Gender'].replace({'Female':0, 'Male':1}).head() #对原来的数据没有影响
'''
0    0
1    1
2    1
3    0
4    1
Name: Gender, dtype: int64
'''
df['Gender'].replace(['Female', 'Male'], [0, 1]).head()#跟上面的效果一样
'''
0    0
1    1
2    1
3    0
4    1
'''

另外, replace 还有一种特殊的方向替换,指定 method 参数为 ffill 则为用前面一个最近的未被替换的值进行替换, bfill 则使用后面最近的未被替换的值进行替换。从下面的例子可以看到,它们的结果是不同的:

s = pd.Series(['a', 1, 'b', 2, 1, 1, 'a'])

s.replace([1, 2], method='ffill') #用前面一个最近的未被替换的值进行替换
'''
0    a
1    a
2    b
3    b
4    b
5    b
6    a
dtype: object
'''
s.replace([1, 2], method='bfill') #使用后面最近的未被替换的值进行替换
'''
0    a
1    b
2    b
3    a
4    a
5    a
6    a
dtype: object
'''

逻辑替换

包括了 wheremask ,这两个函数是完全对称的: where 函数在传入条件为 False 的对应行进行替换,而 mask 在传入条件为 True 的对应行进行替换,当不指定替换值时,替换为缺失值。

s = pd.Series([-1, 1.2345, 100, -50])
s.where(s<0)#用缺失值替换
'''
0    -1.0
1     NaN
2     NaN
3   -50.0
'''
s.where(s<0, 100)#替换不符合条件的
'''
0     -1.0
1    100.0
2    100.0
3    -50.0
'''
s.mask(s<0) #用缺失值替换
'''
0         NaN
1      1.2345
2    100.0000
3         NaN
'''
s.mask(s<0, -50) #替换符合条件的
'''
0    -50.0000
1      1.2345
2    100.0000
3    -50.0000
'''

传入的条件只需是与被调用的 Series 索引一致的布尔序列即可:

s_condition= pd.Series([True,False,False,True],index=s.index)
s.mask(s_condition, -50)    
'''
0    -50.0000
1      1.2345
2    100.0000
3    -50.0000
'''  

数值替换

包含了 round, abs, clip 方法,它们分别表示按照给定精度四舍五入、取绝对值和截断:

s = pd.Series([-1, 1.2345, 100, -50])
s.round(2)
'''
0     -1.00
1      1.23
2    100.00
3    -50.00
dtype: float64
'''
s.abs()
'''
0      1.0000
1      1.2345
2    100.0000
3     50.0000
dtype: float64
'''
s.clip(0, 2) # 前两个数分别表示上下截断边界
'''
0    0.0000
1    1.2345
2    2.0000
3    0.0000
dtype: float64
'''

练一练

clip 中,超过边界的只能截断为边界值,如果要把超出边界的替换为自定义的值,应当如何做?

s.mask(s<0,11).mask(s>2,11)

5. 排序函数

排序共有两种方式,其一为值排序,其二为索引排序,对应的函数是 sort_valuessort_index

下面先利用 set_index 方法把年级和姓名两列作为索引

df_demo = df[['Grade', 'Name', 'Height',
               'Weight']].set_index(['Grade','Name'])

值排序

对身高进行排序,默认参数 ascending=True 为升序:

df_demo.sort_values('Height').head()
'''
                         Height  Weight
Grade     Name                         
Junior    Xiaoli Chu      145.4    34.0
Senior    Gaomei Lv       147.3    34.0
Sophomore Peng Han        147.8    34.0
Senior    Changli Lv      148.7    41.0
Sophomore Changjuan You   150.5    40.0
'''
df_demo.sort_values('Height', ascending=False).head()
'''
                        Height  Weight
Grade    Name                         
Senior   Xiaoqiang Qin   193.9    79.0
         Mei Sun         188.9    89.0
         Gaoli Zhao      186.5    83.0
Freshman Qiang Han       185.3    87.0
Senior   Qiang Zheng     183.9    87.0
'''

在排序中,经常遇到多列排序的问题,比如在体重相同的情况下,对身高进行排序,并且保持身高降序排列,体重升序排列

df_demo.sort_values(['Weight','Height'],ascending=[True,False]).head()
'''
                       Height  Weight
Grade     Name                       
Sophomore Peng Han      147.8    34.0
Senior    Gaomei Lv     147.3    34.0
Junior    Xiaoli Chu    145.4    34.0
Sophomore Qiang Zhou    150.5    36.0
Freshman  Yanqiang Xu   152.4    38.0
'''

索引排序

索引排序的用法和值排序完全一致,只不过元素的值在索引中,此时需要指定索引层的名字或者层号,用参数 level 表示。另外,需要注意的是字符串的排列顺序由字母顺序决定。

df_demo.sort_index(level=['Grade','Name'],ascending=[True,False]).head()
'''
                        Height  Weight
Grade    Name                         
Freshman Yanquan Wang    163.5    55.0
         Yanqiang Xu     152.4    38.0
         Yanqiang Feng   162.3    51.0
         Yanpeng Lv        NaN    65.0
         Yanli Zhang     165.1    52.0
'''

6. apply方法

apply 方法常用于 DataFrame 的行迭代或者列迭代,它的 axis 含义与第2小节中的统计聚合函数一致, apply 的参数往往是一个以序列为输入的函数。例如对于 .mean(),使用 apply 可以如下地写出:

In [88]: df_demo = df[['Height', 'Weight']]

In [89]: def my_mean(x):
   ....:     res = x.mean()
   ....:     return res
   ....: 

In [90]: df_demo.apply(my_mean)
Out[90]: 
Height    163.218033
Weight     55.015873
dtype: float64

同样的,可以利用 lambda 表达式使得书写简洁,这里的 x 就指代被调用的 df_demo表中逐个输入的序列:

In [91]: df_demo.apply(lambda x:x.mean())
Out[91]: 
Height    163.218033
Weight     55.015873
dtype: float64

得益于传入自定义函数的处理, apply 的自由度很高,但这是以性能为代价的。一般而言,使用 pandas 的内置函数处理和 apply 来处理同一个任务,其速度会相差较多,因此只有在确实存在自定义需求的情境下才考虑使用 apply

四、窗口对象

pandas 中有3类窗口,分别是滑动窗口 rolling扩张窗口 expanding 以及指数加权窗口 ewm 。需要说明的是,以日期偏置为窗口大小的滑动窗口将在第十章讨论,指数加权窗口见本章练习。

1. 滑窗对象

要使用滑窗函数,就必须先要对一个序列使用 .rolling 得到滑窗对象,其最重要的参数为窗口大小 window

In [95]: s = pd.Series([1,2,3,4,5])

In [96]: roller = s.rolling(window = 3)

In [97]: roller
Out[97]: Rolling [window=3,center=False,axis=0]

在得到了滑窗对象后,能够使用相应的聚合函数进行计算,需要注意的是窗口包含当前行所在的元素,例如在第四个位置进行均值运算时,应当计算(2+3+4)/3,而不是(1+2+3)/3:

In [98]: roller.mean()
Out[98]: 
0    NaN
1    NaN
2    2.0 # 1,2,3
3    3.0 # 2,3,4
4    4.0 # 3,4,5
dtype: float64

In [99]: roller.sum()
Out[99]: 
0     NaN
1     NaN
2     6.0
3     9.0
4    12.0
dtype: float64

对于滑动相关系数或滑动协方差的计算,可以如下写出:

In [100]: s2 = pd.Series([1,2,6,16,30])

In [101]: roller.cov(s2)
Out[101]: 
0     NaN
1     NaN
2     2.5
3     7.0
4    12.0
dtype: float64

In [102]: roller.corr(s2)
Out[102]: 
0         NaN
1         NaN
2    0.944911
3    0.970725
4    0.995402
dtype: float64

此外,还支持使用 apply 传入自定义函数,其传入值是对应窗口的 Series ,例如上述的均值函数可以等效表示:

In [103]: roller.apply(lambda x:x.mean())
Out[103]: 
0    NaN
1    NaN
2    2.0
3    3.0
4    4.0
dtype: float64

shift, diff, pct_change 是一组类滑窗函数,它们的公共参数为 periods=n ,默认为1,分别表示取向前第 n 个元素的值、与向前第 n 个元素做差(与 Numpy 中不同,后者表示 n 阶差分)、与向前第 n 个元素相比计算增长率。这里的 n 可以为负,表示反方向的类似操作。

In [104]: s = pd.Series([1,3,6,10,15])

In [105]: s.shift(2) #取向前第 n 个元素的值
Out[105]: 
0    NaN
1    NaN
2    1.0
3    3.0
4    6.0
dtype: float64

In [106]: s.diff(3) #与向前第 n 个元素做差
Out[106]: 
0     NaN
1     NaN
2     NaN
3     9.0
4    12.0
dtype: float64

In [107]: s.pct_change() #与向前第n个元素相比计算增长率。
Out[107]: 
0         NaN
1    2.000000
2    1.000000
3    0.666667
4    0.500000
dtype: float64

In [108]: s.shift(-1)
Out[108]: 
0     3.0
1     6.0
2    10.0
3    15.0
4     NaN
dtype: float64

In [109]: s.diff(-2)
Out[109]: 
0   -5.0
1   -7.0
2   -9.0
3    NaN
4    NaN
dtype: float64

将其视作类滑窗函数的原因是,它们的功能可以用窗口大小为 n+1rolling 方法等价代替:

In [110]: s.rolling(3).apply(lambda x:list(x)[0]) # s.shift(2)
Out[110]: 
0    NaN
1    NaN
2    1.0
3    3.0
4    6.0
dtype: float64

In [111]: s.rolling(4).apply(lambda x:list(x)[-1]-list(x)[0]) # s.diff(3)
Out[111]: 
0     NaN
1     NaN
2     NaN
3     9.0
4    12.0
dtype: float64

In [112]: def my_pct(x):
   .....:     L = list(x)
   .....:     return L[-1]/L[0]-1
   .....: 

In [113]: s.rolling(2).apply(my_pct) # s.pct_change()
Out[113]: 
0         NaN
1    2.000000
2    1.000000
3    0.666667
4    0.500000
dtype: float64

练一练

rolling 对象的默认窗口方向都是向前的,某些情况下用户需要向后的窗口,例如对1,2,3设定向后窗口为2的 sum 操作,结果为3,5,NaN,此时应该如何实现向后的滑窗操作?

s = pd.Series([1,2,3])
s.rolling(2).sum().shift(-1)

2. 扩张窗口

扩张窗口又称累计窗口,可以理解为一个动态长度的窗口,其窗口的大小就是从序列开始处到具体操作的对应位置,其使用的聚合函数会作用于这些逐步扩张的窗口上。具体地说,设序列为a1, a2, a3, a4,则其每个位置对应的窗口即[a1]、[a1, a2]、[a1, a2, a3]、[a1, a2, a3, a4]。

In [114]: s = pd.Series([1, 3, 6, 10])

In [115]: s.expanding().mean()
Out[115]: 
0    1.000000 #1
1    2.000000 #1,4
2    3.333333 #1,3,6
3    5.000000 #1,3,6,10
dtype: float64

练一练

cummax, cumsum, cumprod 函数是典型的类扩张窗口函数,请使用 expanding 对象依次实现它们。

s = pd.Series([1, 3, 6, 10])
s.expanding().max()
s.expanding().sum()
def my_prod(x):
    L = list(x)
    prod = 1
    for i in L:
        prod *= i
    return prod
s.expanding().apply(my_prod)

五、练习

Ex1:口袋妖怪数据集

现有一份口袋妖怪的数据集,下面进行一些背景说明:

  • # 代表全国图鉴编号,不同行存在相同数字则表示为该妖怪的不同状态
  • 妖怪具有单属性和双属性两种,对于单属性的妖怪, Type 2 为缺失值
  • Total, HP, Attack, Defense, Sp. Atk, Sp. Def, Speed 分别代表种族值、体力、物攻、防御、特攻、特防、速度,其中种族值为后6项之和
In [116]: df = pd.read_csv('data/pokemon.csv')

In [117]: df.head(3)
Out[117]: 
   #       Name Type 1  Type 2  Total  HP  Attack  Defense  Sp. Atk  Sp. Def  Speed
0  1  Bulbasaur  Grass  Poison    318  45      49       49       65       65     45
1  2    Ivysaur  Grass  Poison    405  60      62       63       80       80     60
2  3   Venusaur  Grass  Poison    525  80      82       83      100      100     80
  1. HP, Attack, Defense, Sp. Atk, Sp. Def, Speed 进行加总,验证是否为 Total 值。
series1 = df[df.columns[5:]].sum(axis=1)
series2 = df[df.columns[4]]
(series2-series1).value_counts()
'''
0    800 //确实都是total值
'''
答案:
(df[['HP', 'Attack', 'Defense', 'Sp. Atk', 'Sp. Def', 'Speed']].sum(1)!=df['Total']).mean() #两列可以用逻辑符号直接对比
  1. 对于 # 重复的妖怪只保留第一条记录,解决以下问题:
  • 求第一属性的种类数量和前三多数量对应的种类
#第一属性的种类数量
df[df.columns[2]].drop_duplicates(keep="first").shape 
'''
(18,)
'''
答案:
dp_dup = df.drop_duplicates('#', keep='first') 
dp_dup['Type 1'].nunique()
'''
18
'''
#前三多数量对应的种类
df[df.columns[0]].value_counts(ascending=False).head(3)
'''
479    6
386    4
711    4
'''
答案:
dp_dup = df.drop_duplicates('#', keep='first')
dp_dup['Type 1'].value_counts().index[:3]
  • 求第一属性和第二属性的组合种类
df = pd.read_csv('data/pokemon.csv')
df.drop_duplicates(['Type 1','Type 2'])
  • 求尚未出现过的属性组合

答案:使用zip打包两列,set.difference函数可以对比两个set

In [36]: L_full = [i+' '+j for i in df['Type 1'].unique() for j in (
   ....:           df['Type 1'].unique().tolist() + [''])]
   ....: 

In [37]: L_part = [i+' '+j for i, j in zip(df['Type 1'], df['Type 2'
   ....:          ].replace(np.nan, ''))]
   ....: 

In [38]: res = set(L_full).difference(set(L_part))

In [39]: len(res)
Out[39]: 188
  1. 按照下述要求,构造 Series
  • 取出物攻,超过120的替换为 high ,不足50的替换为 low ,否则设为 mid
答案:
df['Attack'].mask((50<=df['Attack']
)&(df['Attack']<=120), 'mid').head() #注意括号的写法(...)&(...)
  • 取出第一属性,分别用 replaceapply 替换所有字母为大写
df['Type 1'].apply(lambda x:x.upper())
df['Type 1'].replace({i:str.upper(i) for i in df['Type 1'
            ].unique()})
  • 求每个妖怪六项能力的离差,即所有能力中偏离中位数最大的值,添加到 df并从大到小排序

答案:

x.median:中位数

df['Deviation'] 可以创建一列并添加到原来的frame里

In [43]: df['Deviation'] = df[['HP', 'Attack', 'Defense', 'Sp. Atk', 'Sp. Def', 'Speed']].apply(lambda x:np.max((x-x.median()).abs()), 1)

In [44]: df.sort_values('Deviation', ascending=False).head()
Out[44]: 
       #                 Name  Type 1  Type 2  Total   HP  Attack  Defense  Sp. Atk  Sp. Def  Speed  Deviation
230  213              Shuckle     Bug    Rock    505   20      10      230       10      230      5      215.0
121  113              Chansey  Normal     NaN    450  250       5        5       35      105     50      207.5
261  242              Blissey  Normal     NaN    540  255      10       10       75      135     55      190.0
333  306    AggronMega Aggron   Steel     NaN    630   70     140      230       60       80     50      155.0
224  208  SteelixMega Steelix   Steel  Ground    610   75     125      230       55       95     30      145.0

Ex2:指数加权窗口

  1. 作为扩张窗口的 ewm 窗口

在扩张窗口中,用户可以使用各类函数进行历史的累计指标统计,但这些内置的统计函数往往把窗口中的所有元素赋予了同样的权重。事实上,可以给出不同的权重来赋给窗口中的元素,指数加权窗口就是这样一种特殊的扩张窗口。

其中,最重要的参数是 alpha ,它决定了默认情况下的窗口权重为w_i = (1 - \alpha)^i, i\in \{0, 1, ..., t\} ,其中 i=t表示当前元素, i=0 表示序列的第一个元素。

从权重公式可以看出,离开当前值越远则权重越小,若记原序列为 x ,更新后的当前元素为 y_t ,此时通过加权公式归一化后可知:

\begin{split}y_t &=\frac{\sum_{i=0}^{t} w_i x_{t-i}}{\sum_{i=0}^{t} w_i} \\ &=\frac{x_t + (1 - \alpha)x_{t-1} + (1 - \alpha)^2 x_{t-2} + ... + (1 - \alpha)^{t} x_{0}}{1 + (1 - \alpha) + (1 - \alpha)^2 + ... + (1 - \alpha)^{t}}\\\end{split}

对于 Series 而言,可以用 ewm 对象如下计算指数平滑后的序列:

In [118]: np.random.seed(0)

In [119]: s = pd.Series(np.random.randint(-1,2,30).cumsum())

In [120]: s.head()
Out[120]: 
0   -1
1   -1
2   -2
3   -2
4   -2
dtype: int32

In [121]: s.ewm(alpha=0.2).mean().head()
Out[121]: 
0   -1.000000
1   -1.000000
2   -1.409836
3   -1.609756
4   -1.725845
dtype: float64

请用 expanding 窗口实现。

np.random.seed(0)
s = pd.Series(np.random.randint(-1,2,30).cumsum())
alpha = 0.2
def my_func(x):
    W=[]
    up = 0
    for index,value in enumerate(x):
        W.append((1-alpha)**index)
        up += x[len(x)-index-1] * W[index]
    return up/sum(W)
s.expanding().apply(my_func)
'''
0    -1.000000
1    -1.000000
2    -1.409836
3    -1.609756
4    -1.725845
5    -1.529101
6    -1.648273
...
'''
答案:
def ewm_func(x, alpha=0.2):
    win = (1-alpha)**np.arange(x.shape[0])[::-1]#从后向前取元素
    res = (win*x).sum()/win.sum()
    return res
  1. 作为滑动窗口的 ewm 窗口

从第1问中可以看到, ewm 作为一种扩张窗口的特例,只能从序列的第一个元素开始加权。现在希望给定一个限制窗口 n ,只对包含自身的最近的 n 个元素作为窗口进行滑动加权平滑。请根据滑窗函数,给出新的 w_iy_t 的更新公式,并通过 rolling 窗口实现这一功能。

w_i = (1 - \alpha)^i, i\in \{0, 1, ..., n\}

\begin{split}y_t &=\frac{\sum_{i=0}^{n-1} w_i x_{t-i}}{\sum_{i=0}^{n-1} w_i} \\ &=\frac{x_t + (1 - \alpha)x_{t-1} + (1 - \alpha)^2 x_{t-2} + ... + (1 - \alpha)^{n-1} x_{t-(n-1)}}{1 + (1 - \alpha) + (1 - \alpha)^2 + ... + (1 - \alpha)^{n-1}}\\\end{split}

s.rolling(window=4).apply(ewm_func).head() 
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,189评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,577评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,857评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,703评论 1 276
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,705评论 5 366
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,620评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,995评论 3 396
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,656评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,898评论 1 298
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,639评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,720评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,395评论 4 319
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,982评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,953评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,195评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,907评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,472评论 2 342

推荐阅读更多精彩内容