- ubuntu12.04环境下使用kvm ioctl接口实现最简单的虚拟机
- Ubuntu 通过无线网络安装Ubuntu Server启动系统后连接无线网络的方法
- 在Ubuntu上搭建网桥的方法
- ubuntu 虚拟机上网方式及相关配置详解
CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界.
这篇CFSDN的博客文章用Python实现数据的透视表的方法由作者收集整理,如果你对这篇文章有兴趣,记得点赞哟.
在处理数据时,经常需要对数据分组计算均值或者计数,在Microsoft Excel中,可以通过透视表轻易实现简单的分组运算。而对于更加复杂的分组运算,Python中pandas包可以帮助我们实现.
1 数据 。
首先引入几个重要的包:
1
2
3
|
import
pandas as pd
import
numpy as np
from
pandas
import
DataFrame,Series
|
通过代码构造数据集:
1
|
data
=
DataFrame({
'key1'
:[
'a'
,
'b'
,
'c'
,
'a'
,
'c'
,
'a'
,
'b'
,
'a'
,
'c'
,
'a'
,
'b'
,
'c'
],
'key2'
:[
'one'
,
'two'
,
'three'
,
'two'
,
'one'
,
'one'
,
'three'
,
'one'
,
'two'
,
'three'
,
'one'
,
'two'
],
'num1'
:np.random.rand(
12
),
'num2'
:np.random.randn(
12
)})
|
得到数据集如下:
1
2
3
4
5
6
7
8
9
10
11
12
|
data
key1 key2 num1 num2
0
a one
0.268705
0.084091
1
b two
0.876707
0.217794
2
c three
0.229999
0.574402
3
a two
0.707990
-
1.444415
4
c one
0.786064
0.343244
5
a one
0.587273
1.212391
6
b three
0.927396
1.505372
7
a one
0.295271
-
0.497633
8
c two
0.292721
0.098814
9
a three
0.369788
-
1.157426
|
2 交叉表—分类计数 。
按照不同类进行计数统计是最常见透视功能,可以通 。
(1)crosstab 。
1
2
|
#函数:
crosstab(index, columns, values
=
None
, rownames
=
None
, colnames
=
None
, aggfunc
=
None
, margins
=
False
, dropna
=
True
, normalize
=
False
)
|
crosstab的index和columns是必须要指定复制的参数:
1
|
pd.crosstab(data.key1,data.key2)
|
结果如下:
1
2
3
4
5
|
key2 one three two
key1
a
3
1
1
b
0
1
1
c
1
1
1
|
想要在边框处增加汇总项可以指定margin的值为True:
1
|
pd.crosstab(data.key1,data.key2,margins
=
True
)
|
结果:
1
2
3
4
5
6
|
key2 one three two
All
key1
a
3
1
1
5
b
1
1
1
3
c
1
1
2
4
All
5
3
4
12
|
(2)pivot_table 。
函数:
1
|
pivot_table(data, values
=
None
, index
=
None
, columns
=
None
, aggfunc
=
'mean'
, fill_value
=
None
, margins
=
False
, dropna
=
True
, margins_name
=
'All'
)
|
使用pivot_table函数同样可以实现,运算函数默认值aggfunc='mean',指定为aggfunc='count'即可:
1
|
data.pivot_table(
'num1'
,index
=
'key1'
,columns
=
'key2'
,aggfunc
=
'count'
)
|
结果相同:
1
2
3
4
5
|
key2 one three two
key1
a
3
1
1
b
1
1
1
c
1
1
2
|
(3)groupby 。
通过groupby相对来说会更加复杂,首先需要对data按照key1和key2进行聚类,然后进行count运算,再将key2的index重塑为columns:
1
|
data.groupby([
'key1'
,
'key2'
])[
'num1'
].count().unstack()
|
结果:
1
2
3
4
5
|
key2 one three two
key1
a
3
1
1
b
1
1
1
c
1
1
2
|
3 其它透视表运算 。
(1)pivot_table 。
1
|
pivot_table(data, values
=
None
, index
=
None
, columns
=
None
, aggfunc
=
'mean'
, fill_value
=
None
, margins
=
False
, dropna
=
True
, margins_name
=
'All'
)
|
要进行何种运算,只需要指定aggfunc即可.
默认计算均值:
1
|
data.pivot_table(index
=
'key1'
,columns
=
'key2'
)
|
out:
1
2
3
4
5
6
|
num1 num2
key2 one three two one three two
key1
a
0.193332
0.705657
0.203155
-
0.165749
2.398164
-
1.293595
b
0.167947
0.204545
0.661460
0.555850
-
0.522528
0.143530
c
0.496993
0.033673
0.206028
-
0.115093
0.024650
0.077726
|
分类汇总呢并求和:
1
|
data.pivot_table(index
=
'key1'
,columns
=
'key2'
,aggfunc
=
'sum'
)
|
结果:
1
2
3
4
5
6
|
num1 num2
key2 one three two one three two
key1
a
0.579996
0.705657
0.203155
-
0.497246
2.398164
-
1.293595
b
0.167947
0.204545
0.661460
0.555850
-
0.522528
0.143530
c
0.496993
0.033673
0.412055
-
0.115093
0.024650
0.155452
|
也可以使用其它自定义函数:
1
2
3
|
#定义一个最大值减最小值的函数
def
max_min (group):
return
group.
max
()
-
group.
min
()
|
1
|
data.pivot_table(index
=
'key1'
,columns
=
'key2'
,aggfunc
=
max_min)
|
结果:
1
2
3
4
5
6
|
num1 num2
key2 one three two one three two
key1
a
0.179266
0.0
0.000
3.109405
0.0
0.000000
b
0.000000
0.0
0.000
0.000000
0.0
0.000000
c
0.000000
0.0
0.177
0.000000
0.0
1.609466
|
(2)通过groupby 。
普通的函数如mean,sum可以直接应用:
data.groupby(['key1','key2']).mean().unstack() 。
返回结果:
1
2
3
4
5
6
|
num1 num2
key2 one three two one three two
key1
a
0.193332
0.705657
0.203155
-
0.165749
2.398164
-
1.293595
b
0.167947
0.204545
0.661460
0.555850
-
0.522528
0.143530
c
0.496993
0.033673
0.206028
-
0.115093
0.024650
0.077726
|
以上这篇用Python实现数据的透视表的方法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持我.
原文链接:https://blog.csdn.net/moxigandashu/article/details/69486269#3-其它透视表运算 。
最后此篇关于用Python实现数据的透视表的方法的文章就讲到这里了,如果你想了解更多关于用Python实现数据的透视表的方法的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。
背景: 我最近一直在使用 JPA,我为相当大的关系数据库项目生成持久层的轻松程度给我留下了深刻的印象。 我们公司使用大量非 SQL 数据库,特别是面向列的数据库。我对可能对这些数据库使用 JPA 有一
我已经在我的 maven pom 中添加了这些构建配置,因为我希望将 Apache Solr 依赖项与 Jar 捆绑在一起。否则我得到了 SolarServerException: ClassNotF
interface ITurtle { void Fight(); void EatPizza(); } interface ILeonardo : ITurtle {
我希望可用于 Java 的对象/关系映射 (ORM) 工具之一能够满足这些要求: 使用 JPA 或 native SQL 查询获取大量行并将其作为实体对象返回。 允许在行(实体)中进行迭代,并在对当前
好像没有,因为我有实现From for 的代码, 我可以转换 A到 B与 .into() , 但同样的事情不适用于 Vec .into()一个Vec . 要么我搞砸了阻止实现派生的事情,要么这不应该发
在 C# 中,如果 A 实现 IX 并且 B 继承自 A ,是否必然遵循 B 实现 IX?如果是,是因为 LSP 吗?之间有什么区别吗: 1. Interface IX; Class A : IX;
就目前而言,这个问题不适合我们的问答形式。我们希望答案得到事实、引用资料或专业知识的支持,但这个问题可能会引发辩论、争论、投票或扩展讨论。如果您觉得这个问题可以改进并可能重新打开,visit the
我正在阅读标准haskell库的(^)的实现代码: (^) :: (Num a, Integral b) => a -> b -> a x0 ^ y0 | y0 a -> b ->a expo x0
我将把国际象棋游戏表示为 C++ 结构。我认为,最好的选择是树结构(因为在每个深度我们都有几个可能的移动)。 这是一个好的方法吗? struct TreeElement{ SomeMoveType
我正在为用户名数据库实现字符串匹配算法。我的方法采用现有的用户名数据库和用户想要的新用户名,然后检查用户名是否已被占用。如果采用该方法,则该方法应该返回带有数据库中未采用的数字的用户名。 例子: “贾
我正在尝试实现 Breadth-first search algorithm , 为了找到两个顶点之间的最短距离。我开发了一个 Queue 对象来保存和检索对象,并且我有一个二维数组来保存两个给定顶点
我目前正在 ika 中开发我的 Python 游戏,它使用 python 2.5 我决定为 AI 使用 A* 寻路。然而,我发现它对我的需要来说太慢了(3-4 个敌人可能会落后于游戏,但我想供应 4-
我正在寻找 Kademlia 的开源实现C/C++ 中的分布式哈希表。它必须是轻量级和跨平台的(win/linux/mac)。 它必须能够将信息发布到 DHT 并检索它。 最佳答案 OpenDHT是
我在一本书中读到这一行:-“当我们要求 C++ 实现运行程序时,它会通过调用此函数来实现。” 而且我想知道“C++ 实现”是什么意思或具体是什么。帮忙!? 最佳答案 “C++ 实现”是指编译器加上链接
我正在尝试使用分支定界的 C++ 实现这个背包问题。此网站上有一个 Java 版本:Implementing branch and bound for knapsack 我试图让我的 C++ 版本打印
在很多情况下,我需要在 C# 中访问合适的哈希算法,从重写 GetHashCode 到对数据执行快速比较/查找。 我发现 FNV 哈希是一种非常简单/好/快速的哈希算法。但是,我从未见过 C# 实现的
目录 LRU缓存替换策略 核心思想 不适用场景 算法基本实现 算法优化
1. 绪论 在前面文章中提到 空间直角坐标系相互转换 ,测绘坐标转换时,一般涉及到的情况是:两个直角坐标系的小角度转换。这个就是我们经常在测绘数据处理中,WGS-84坐标系、54北京坐标系
在软件开发过程中,有时候我们需要定时地检查数据库中的数据,并在发现新增数据时触发一个动作。为了实现这个需求,我们在 .Net 7 下进行一次简单的演示. PeriodicTimer .
二分查找 二分查找算法,说白了就是在有序的数组里面给予一个存在数组里面的值key,然后将其先和数组中间的比较,如果key大于中间值,进行下一次mid后面的比较,直到找到相等的,就可以得到它的位置。
我是一名优秀的程序员,十分优秀!