- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有一个数据框:
In [59]: df.head()
Out[59]:
src-subnet dst-subnet bytes Start
0 ATL Internet 180 1477252800
1 ATL ATL 206 1477252800
2 ATL Private-10.0.0.0 17160 1477252800
3 SAT Internet 15768 1477252800
4 AWS-CloudFront ATL 1592 1477252800
对于每个 start 值,我想要在每对可能的 src-subnet
和 dst-subnet
之间传输的字节总和。
我写了以下内容:
g_start = df.groupby('Start')
g_start_subnet = g_start.apply(lambda x: x.groupby(['src-subnet', 'dst-subnet']).sum())
我得到了:
```
In [60]: g_start_subnet
Out[60]:
bytes
Start src-subnet dst-subnet
1476896400 ATL ATL 5190647907
AWS 67442
AWS-CloudFront 3523866
AWS-EC2 10231320
Broadcast-255.255.255.255 550470
COL 25459487
Corvil-CNE 5130
DEN 68247258
DFB 49930518
DFW 109329393
HOU 43601191
IND 97444445
Internal Network 2295849
Internet 72555057
JES 64789642
LAF 30442304
LOU 27372802
MGO 307340
Multicast-224.0.0.0 25339730
NOL 49526023
Private-10.0.0.0 814280925
Private-172.16.0.0 9348122
Private-192.168.0.0 8907521
SAT 43590577
SCI 2473674
WMSApp 74085307
WMSDB 9604726
AWS ATL 78309
AWS-CloudFront ATL 10026686
HOU 9285
... ...
1477497600 Private-10.0.0.0 Internet 90581028
Link-169.254.0.0 276
Private-10.0.0.0 159103776
Private-192.168.0.0 60724723
WMSApp 1100
Private-100.64.0.0 ATL 1304731
Private-192.168.0.0 ATL 77031
Internet 926
Multicast-224.0.0.0 238220
Private-10.0.0.0 19320
Private-192.168.0.0 393982
SAT ATL 18278815
AWS-EC2 28380
Internet 42773386
Private-10.0.0.0 8030664
Private-172.16.0.0 230389
Private-192.168.0.0 5938773
SCI ATL 2055407
Internet 900
Multicast-224.0.0.0 256
Solace-Servers Broadcast-255.255.255.255 153438
WMSApp ATL 95861882
AWS-EC2 360
DFB 3066
DFW 9000
Internet 3330
Multicast-224.0.0.0 31292117
Private-10.0.0.0 1022
WMSDB ATL 8678562
Internet 2160
我如何知道删除多重索引并获得像数据帧这样的矩阵?
最终结果应包含列Start、bytes、src-subnet、dst-subnet
最佳答案
我认为你可以使用:
g_start_subnet = g_start_subnet.reset_index()
但也许更好的是使用:
print (df.groupby(['Start', 'src-subnet', 'dst-subnet'], as_index=False).sum())
关于python - pandas 按 3 个变量分组,但对其中 2 个变量求和,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40678742/
我正在尝试在 OCaml 中创建一个函数,该函数在数学中执行求和函数。 我试过这个: sum n m f = if n = 0 then 0 else if n > m then f
我正在尝试找到一个可以帮助我解决问题的公式。 这个公式应该对每个靠近(总是在左边)具有相同名称的单元格的单元格求和(或工作)。如下所示: 将每个大写字母视为 “食谱”并且每个小写字母为 “成分” .在
让它成为以下 python pandas DataFrame,其中每一行代表一个人在酒店的住宿。 | entry_date | exit_date | days | other_columns
我有显示客户来电的数据。我有客户号码、电话号码(1 个客户可以有多个)、每个语音调用的日期记录以及调用持续时间的列。表看起来如下示例。 CusID | PhoneNum | Date
让它成为以下 python pandas DataFrame,其中每一行代表一个人在酒店的住宿。 | entry_date | exit_date | days | other_columns
我得到了两列数据; 答: 2013年12月31日 2013年12月30日 2013年12月29日 2013年12月28日 2013年12月27日 2012年12月26日 B: 10 10 10 10
我对 double 格式的精度有疑问。 示例: double K=0, L=0, M=0; scanf("%lf %lf %lf", &K, &L, &M); if((K+L) 我的测试输入: K
我有以下数组: int[,] myArray1 = new int[2, 3] { { 1, 2, 3 }, { 4, 6, 8 } }; int[,] myArray2 = new int[2, 3
我需要有关报告查询的帮助。我在该方案的底部有一个发票表,需要一种方法来获取总计费金额,同时在此数据库方案中的较高点进行条件过滤。我需要加入其他表,这会导致 SUM 函数返回不需要的结果。 这是我正在使
我有一个使用innodb作为存储引擎的MySQL数据库,并且我有许多采用基本形式的查询: SELECT bd.billing, SUM(CASE WHEN tc.transaction_class
尝试创建一个查询来给出总胜、平和负。我有以下查询 SELECT CASE WHEN m.home_team = '192' AND m.home_full_time_score
我正在尝试生成一份报告,显示排名靠前的推荐人以及他们推荐的人产生了多少收入。 这是我的表格的缩写版本: Users Table ------------------ id referral_user_
我有以下查询,并得到了预期的结果: SELECT IF (a1>b1,'1','0') AS a1r, IF (a2>b2,'1','0') AS a2r,
我尝试了几种不同的解决方案,但都没有成功。我给出的表格是一个示例,其设计和功能与我实际使用的表格类似: PK | Color | Count -------------------
我正在尝试构建一个查询来检查我的库存。 SELECT COUNT(*) AS item_count, reseller_id, sum(sold) as sold_count, sum(refunde
我试图解决一个看起来像下面编写的代码的问题,但由于缺乏知识和阅读 sqlalchemy 文档,我还没有真正找到解决问题的方法。 目标: 如果 year_column 中的年份相同,则获取 sales_
我有一个包含一周中多天的表格。一周中的每一天都有独特的属性,例如冰淇淋是否在这一天成功送达: ID DAY_WEEK ICE_CREAM 1 Monday
首先,我有一个名为store_00的表 id | ref | item | qty | cost | sell 1 22 x1 5 10 15 2 22
我正在编写一个程序,计算每个数字的总和,直到 1000。例如,1+2+3+4+5....+100。首先,我将求和作业分配给 10 个处理器:处理器 0 得到 1-100,处理器 1 得到 101-20
我想在一个循环中一次对多个属性求和: class Some(object): def __init__(self, acounter, bcounter): self.acou
我是一名优秀的程序员,十分优秀!