[关闭]
@rg070836rg 2017-03-11T21:44:21.000000Z 字数 2507 阅读 1638

Pandas

毕业设计


  1. import pandas as pd # 导入pandas库
  2. import numpy as np
  3. pd.Series([1,3,6,np.nan,44,1]) #自动创建0~n-1索引,对应所给的数据
  4. dates = pd.date_range('20160101',periods=6) # 创建一个时间范围的数据
  5. a = np.arange(24).reshape(6,4)
  6. df = pd.DataFrame(a,index=[1,2,3,4,5,6],columns=['a','b','c','d']) #创一个表,内容为一个数组,索引号为时间,栏也为自定义
  7. df['b'] # 取出栏目号为b的对应的索引号和值
  8. df = pd.DataFrame(np.arange(12).reshape((3,4))) #索引号和栏目都从0开始排
  9. df2.dtypes # 查看各栏目类型
  10. df2.index # 查看索引内容
  11. df2.columns # 查看栏目内容
  12. df2.values  # 内容转数组
  13. print(df.sort_values(by=1, ascending=True))
  14. df.sort_index(axis=0, ascending=False) #axis 0——index排序 1——columns排序 ascending False——降序 True——升序
  15. print df[0:3] # 打印跨越多行(0 1 2 三行)
  16. print(df.loc[1]) # 分行打印行号index为1的所有列内容
  17. print df.loc[:,['c','d']] # 打印所有行,列为c、d的内容
  18. df.iloc[5,3] # 第六行第四列的值 从0开始
  19. df.iloc[0:1,1:3] # 行列分别取,注意减1
  20. df.iloc[[1],1:3] # 行取对应行号,从0开始,列取范围注意减1
  21. df.ix[:3,['a','d']] # 前三行,a d两列
  22. print df[df.a%2==1] #打印满座条件的行列
  23. df.B[df.A>4] = 0 # 修改B列中,并且A列中的值大于4的值为0
  24. df['F'] = np.nan # 加上一列数,值为NaN
  25. df.dropna( # 去掉有 NaN 的行或列,
  26. axis=0, # 0: 对行进行操作; 1: 对列进行操作
  27. how='any' # 'any': 只要存在NaN删 'all': 必须全部是NaN才删
  28. ) # 注意 这个是不修改原始数据的 要保存得新建变量存储
  29. print df.fillna('A') # 填充NaN 为具体的值 注意 这个是不修改原始数据的
  30. df.isnull() # 判断是否有缺失数据 NaN, 为 True 表示缺失数据:
  31. np.any(df.isnull()) == True # 检测在数据中是否存在 NaN, 如果存在就返回 True:
  32. data = pd.read_csv('students.csv') # 读取csv
  33. data.to_pickle('student.pickle')
  34. res = pd.concat([df1, df2, df3], axis=0) # 上下合并,不重置index
  35. res = pd.concat([df1, df2, df3], axis=0, ignore_index=True) # 上下合并,不重置index
  36. res = pd.concat([df1, df2], axis=0, join='outer') # 上下合并,不写jion默认是 outer 会加上不重复的列,并填充NaN
  37. res = pd.concat([df1, df2], axis=0, join='inner') # 为inner时,只合并共同列
  38. res = pd.concat([df1, df2], axis=1, join_axes=[df1.index]) # 按照df1的index 进行横向合并 只合并df1中的index df2中的忽略
  39. res = pd.concat([df1, df2], axis=1) # 相互合并
  40. res = df1.append([df2, df3], ignore_index=True) # 纵向增加数据
  41. res = pd.merge(left, right, on='key') # 在key——column的基准下合并
  42. res = pd.merge(left, right, on=['key1', 'key2'], how='inner') # 只考虑key1,key2完全一致才合并(inner——默认),其他被忽略
  43. res = pd.merge(left, right, on=['key1', 'key2'], how='outer') # 全合并,无数据的补成NaN
  44. res = pd.merge(a, b, on=['key1', 'key2'], how='left') # 基于左边一个也就是a的key1/2进行合并,没有的补NaN
  45. res = pd.merge(a, b, on=['key1', 'key2'], how='right') # 基于左边一个也就是b的key1/2进行合并,没有的补NaN
  46. res = pd.merge(df1, df2, on='col1', how='outer', indicator=True) # 和之前的合并方式一致,不过会加上指示器,告知数据的合并方式,left_only/right_only/both 参数设置为 indicator='indicator_column' 可以改变栏目名字
  47. res = pd.merge(left, right, left_index=True, right_index=True, how='inner') # 考虑index的合并方式,同样有四种how方式
  48. res = pd.merge(a, b, on='k', suffixes=['_a', '_b'], how='inner') # 重复数据加入后缀主动区分
  49. import matplotlib.pyplot as plt # 导入数据显示模块
  50. data.plot() # 数据绘制
  51. data.cumsum() # 累加求和
  52. plt.show() # 数据渲染
  53. ax = data.plot.scatter(x='A',y='B',color='DarkBlue',label='Class1'ax=ax) # 绘制散点图,根据data中的AB列对应的数据,可以设置颜色和标签,ax=ax可以设置后置的数据绘制,覆盖在前面的
添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注