Pandas¶
[TOC]
选择列¶
d3 = d3[['time', 'status', 'CM', 'CT', 'CU']]
过滤¶
df = df[(df.a > A) & (df.a < B)]
取最大值¶
d6['count'] = d6[['value_x','value_y']].max(axis=1)
新建列¶
df.Sendto.apply(md5_encode).tolist()
df.assign(cm_true = lambda df: (df.b == 'cm') & (df.c == True))
# 根据多列的值新建
axis :
{0 or ‘index’, 1 or ‘columns’}, default 0
Axis along which the function is applied:
0 or ‘index’: apply function to each column.
1 or ‘columns’: apply function to each row.
df['val'] = df.apply(lambda row: my_min(row['val_1'], row['val_2']), axis=1)
Select row with maximum value from each group
df = pd.DataFrame(
{'host':['other','other','that','this','this'],
'service':['mail','web','mail','mail','web'],
'no':[1, 2, 1, 2, 1]}
).set_index(['host', 'service'])
mask = df.groupby(level=0).agg('idxmax')
df_count = df.loc[mask['no']].reset_index()
df:
no
host service
other mail 1
web 2
that mail 1
this mail 2
web 1
df_count
host service no
0 other web 2
1 that mail 1
2 this mail 2
透视表¶
df = pd.DataFrame({"A": ["foo", "foo", "foo", "foo", "foo",
"bar", "bar", "bar", "bar"],
"B": ["one", "one", "one", "two", "two",
"one", "one", "two", "two"],
"C": ["small", "large", "large", "small",
"small", "large", "small", "small",
"large"],
"D": ["high", "high", "low", "high",
"low", "low", "low", "low",
"high"],
"E": [1, 2, 2, 3, 3, 4, 5, 6, 7]})
data = pd.pivot_table(
df,
index=['A', 'B'],
columns=['C', 'D'],
values=['E'],
aggfunc={'E': [np.sum, np.mean]},
fill_value=0
)
查询
data.query('A==["foo"]')
df
A B C D E
0 foo one small high 1
1 foo one large high 2
2 foo one large low 2
3 foo two small high 3
4 foo two small low 3
5 bar one large low 4
6 bar one small low 5
7 bar two small low 6
8 bar two large high 7
data
E
mean sum
C large small large small
D high low high low high low high low
A B
bar one 0 4 0 5 0 4 0 5
two 7 0 0 6 7 0 0 6
foo one 2 2 1 0 2 2 1 0
two 0 0 3 3 0 0 3 3
![image-20181116171955521](/Users/hdc/Library/Application Support/typora-user-images/image-20181116171955521.png)
透视表逆转换(stack):¶
#id_vars:透视表的列
d1 = pd.melt(data, id_vars=['time', 'status'])
df.stack()
列旋转成行,也就是列名变为索引名,原索引变成多层索引,结果是具有多层索引的Series,实际上是把数据集拉长
df.unstack()
将含有多层索引的Series转换为DataFrame,实际上是把数据集压扁,如果某一列具有较少类别,那么把这些类别拉出来作为列
df.pivot() 实际上是unstack的应用,把数据集压扁
# .stack() 将列 “压缩” 为行的下级层次化索引,并将数据框(DataFrame)转换成序列(Series)
# .unstack() stack 的逆操作——将层次化的行索引 “展开” 为列
d1 = pd.pivot_table(
df,
index=['A', 'B'],
columns=['C', 'D'],
values=['E'],
)
d2 = data.stack().stack().reset_index()
d1
E
C large small
D high low high low
A B
bar one 0 4 0 5
two 7 0 0 6
foo one 2 2 1 0
two 0 0 3 3
d2
A B D C E
0 bar one high large 0
1 bar one high small 0
2 bar one low large 4
3 bar one low small 5
4 bar two high large 7
5 bar two high small 0
6 bar two low large 0
7 bar two low small 6
8 foo one high large 2
9 foo one high small 1
10 foo one low large 2
11 foo one low small 0
12 foo two high large 0
13 foo two high small 3
14 foo two low large 0
15 foo two low small 3
从数据库读取数据¶
mysql
import pymysql
db = pymysql.connect(host='localhost', port=3306, user='', passwd='', db='db')
df = pd.read_sql('select * from table', con=db)
mongo
import pandas as pd
import pymongo
client = pymongo.MongoClient(host='localhost',port=27017)
db = client.DBName
collection = db.collectionName
data = pd.DataFrame(list(collection.find()))
遍历df¶
方法很多,主要是性能上的差异
items/iteritems(同一个函数,不同变量名): Iterator over (column name, Series) pairs.(生成器)
#最常用:iterrows()
#Iterate over DataFrame rows as (index, Series) pairs.(生成器)
>>> for index, row in df.itertuples():
... print(row)
#速度最快(返回的是namedtuples):itertuples()
#Iterate over DataFrame rows as namedtuples, with index value as first element of the tuple
>>> for row in df.itertuples():
... print(row)
# 读取文件
df = pd.read_csv(path='file.csv')
参数:header=None 用默认列名,0,1,2,3...
names=['A', 'B', 'C'...] 自定义列名
index_col='A'|['A', 'B'...] 给索引列指定名称,如果是多重索引,可以传list
skiprows=[0,1,2] 需要跳过的行号,从文件头0开始,skip_footer从文件尾开始
nrows=N 需要读取的行数,前N行
chunksize=M 返回迭代类型TextFileReader,每M条迭代一次,数据占用较大内存时使用
sep=':'数据分隔默认是',',根据文件选择合适的分隔符,如果不指定参数,会自动解析
skip_blank_lines=False 默认为True,跳过空行,如果选择不跳过,会填充NaN
converters={'col1', func} 对选定列使用函数func转换,通常表示编号的列会使用(避免转换成int)
dfjs = pd.read_json('file.json') 可以传入json格式字符串
dfex = pd.read_excel('file.xls', sheetname=[0,1..]) 读取多个sheet页,返回多个df的字典
# 文件预处理
df.duplicated() 返回各行是否是上一行的重复行
df.drop_duplicates() 删除重复行,如果需要按照列过滤,参数选填['col1', 'col2',...]
df.fillna(0) 用实数0填充na
df.dropna() axis=0|1 0-index 1-column
how='all'|'any' all-全部是NA才删 any-只要有NA就全删
del df['col1'] 直接删除某一列
df.drop(['col1',...], aixs=1) 删除指定列,也可以删除行
df.column = col_lst 重新制定列名
df.rename(index={'row1':'A'}, 重命名索引名和列名
columns={'col1':'A1'})
df.replace(dict) 替换df值,前后值可以用字典表,{1:‘A’, '2':'B'}
def get_digits(str):
m = re.match(r'(\d+(\.\d+)?)', str.decode('utf-8'))
if m is not None:
return float(m.groups()[0])
else:
return 0
df.apply(get_digits) DataFrame.apply,只获取小数部分,可以选定某一列或行
df['col1'].map(func) Series.map,只对列进行函数转换
pd.merge(df1, df2, on='col1',
how='inner',sort=True) 合并两个DataFrame,按照共有的某列做内连接(交集),outter为外连接(并集),结果排序
pd.merge(df1, df2, left_on='col1',
right_on='col2') df1 df2没有公共列名,所以合并需指定两边的参考列
pd.concat([sr1, sr2, sr3,...], axis=0) 多个Series堆叠成多行,结果仍然是一个Series
pd.concat([sr1, sr2, sr3,...], axis=1) 多个Series组合成多行多列,结果是一个DataFrame,索引取并集,没有交集的位置填入缺省值NaN
df1.combine_first(df2) 用df2的数据补充df1的缺省值NaN,如果df2有更多行,也一并补上
pd.get_dummies(df['col1'], prefix='key') 某列含有有限个值,且这些值一般是字符串,例如国家,借鉴位图的思想,可以把k个国家这一列量化成k列,每列用0、1表示
# 数据筛选
df.columns 列名,返回Index类型的列的集合
df.index 索引名,返回Index类型的索引的集合
df.shape 返回tuple,行x列
df.head(n=N) 返回前N条
df.tail(n=M) 返回后M条
df.values 值的二维数组,以numpy.ndarray对象返回
df.index DataFrame的索引,索引不可以直接赋值修改
df.reindex(index=['row1', 'row2',...]
columns=['col1', 'col2',...]) 根据新索引重新排序
df[m:n] 切片,选取m~n-1行
df[df['col1'] > 1] 选取满足条件的行
df.query('col1 > 1') 选取满足条件的行
df.query('col1==[v1,v2,...]')
df.ix[:,'col1'] 选取某一列
df.ix['row1', 'col2'] 选取某一元素
df.ix[:,:'col2'] 切片选取某一列之前(包括col2)的所有列
df.loc[m:n] 获取从m~n行(推荐)
df.iloc[m:n] 获取从m~n-1行
df.loc[m:n-1,'col1':'coln'] 获取从m~n行的col1~coln列
sr=df['col'] 取某一列,返回Series
sr.values Series的值,以numpy.ndarray对象返回
sr.index Series的索引,以index对象返回
# 数据运算与排序
df.T DataFrame转置
df1 + df2 按照索引和列相加,得到并集,NaN填充
df1.add(df2, fill_value=0) 用其他值填充
df1.add/sub//mul/div 四则运算的方法
df - sr DataFrame的所有行同时减去Series
df * N 所有元素乘以N
df.add(sr, axis=0) DataFrame的所有列同时减去Series
sr.order() Series升序排列
df.sort_index(aixs=0, ascending=True) 按行索引升序
df.sort_index(by=['col1', 'col2'...]) 按指定列优先排序
df.sort_values(by='')
df.rank() 计算排名rank值
# 数学统计
sr.unique Series去重
sr.value_counts() Series统计频率,并从大到小排序,DataFrame没有这个方法
sr.describe() 返回基本统计量和分位数
df.describe() 按各列返回基本统计量和分位数
df.count() 求非NA值得数量
df.max() 求最大值
df.min() 求最大值
df.sum(axis=0) 按各列求和
df.mean() 按各列求平均值
df.median() 求中位数
df.var() 求方差
df.std() 求标准差
df.mad() 根据平均值计算平均绝对利差
df.cumsum() 求累计和
sr1.corr(sr2) 求相关系数
df.cov() 求协方差矩阵
df1.corrwith(df2) 求相关系数
pd.cut(array1, bins) 求一维数据的区间分布
pd.qcut(array1, 4) 按指定分位数进行区间划分,4可以替换成自定义的分位数列表
df['col1'].groupby(df['col2']) 列1按照列2分组,即列2作为key
df.groupby('col1') DataFrame按照列1分组
grouped.aggreagte(func) 分组后根据传入函数来聚合
grouped.aggregate([f1, f2,...]) 根据多个函数聚合,表现成多列,函数名为列名
grouped.aggregate([('f1_name', f1), ('f2_name', f2)]) 重命名聚合后的列名
grouped.aggregate({'col1':f1, 'col2':f2,...}) 对不同的列应用不同函数的聚合,函数也可以是多个
pd.crosstab(df['col1'], df['col2']) 交叉表,计算分组的频率