- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有以下 excel 数据,我想将其转换为下面提到的预期平面格式。在预期的格式中,我不想包含聚合列,例如差异和总计。请帮助我使用 python Pandas Dataframe 或 Pyspark Dataframe 完成它。
Excel 中的输入数据为:
预期的最终格式为
df 是我在输入数据上的 Pandas 数据框。下面是输出
df = pd.read_excel("D:/StackOverflow.xlsx",sheet_name = 'Input')
Data Unnamed: 1 Unnamed: 2 Unnamed: 3 Unnamed: 4 Unnamed: 5 Unnamed: 6
0 Type Domestic NaN NaN International NaN NaN
1 Unit/Subunit Jan Feb Diff Jan Feb Diff
2 NaN 2020 2021 NaN 2020 2021 NaN
3 Unit1 NaN NaN NaN NaN NaN NaN
4 SubUnit11 100 130 30 5000 8000 3000
5 SubUnit12 50 80 30 1000 4000 3000
6 SubUnit13 1000 1100 100 100000 100010 10
7 Total Unit1 1150 1310 160 106000 112010 6010
8 Unit2 NaN NaN NaN NaN NaN NaN
9 SubUnit21 1100 1130 30 15000 81100 66100
10 SubUnit22 150 180 30 11000 42000 31000
11 SubUnit23 11000 1110 -9890 1001000 1022010 21010
12 Total Unit2 12250 2420 -9830 1027000 1145110 118110
print (df.index.tolist()[:3])
[0, 1, 2]
print (df.columns.tolist()[:3])
['Data', 'Unnamed: 1', 'Unnamed: 2']
print (df.head(10).to_dict())
{'Data': {0: 'Type', 1: 'Unit/Subunit', 2: nan, 3: 'Unit1', 4: 'SubUnit11', 5: 'SubUnit12', 6: 'SubUnit13', 7: 'Total Unit1', 8: 'Unit2', 9: 'SubUnit21'}, 'Unnamed: 1': {0: 'Domestic ', 1: 'Jan', 2: 2020, 3: nan, 4: 100, 5: 50, 6: 1000, 7: 1150, 8: nan, 9: 1100}, 'Unnamed: 2': {0: nan, 1: 'Feb', 2: 2021, 3: nan, 4: 130, 5: 80, 6: 1100, 7: 1310, 8: nan, 9: 1130}, 'Unnamed: 3': {0: nan, 1: 'Diff', 2: nan, 3: nan, 4: 30, 5: 30, 6: 100, 7: 160, 8: nan, 9: 30}, 'Unnamed: 4': {0: 'International', 1: 'Jan', 2: 2020, 3: nan, 4: 5000, 5: 1000, 6: 100000, 7: 106000, 8: nan, 9: 15000}, 'Unnamed: 5': {0: nan, 1: 'Feb', 2: 2021, 3: nan, 4: 8000, 5: 4000, 6: 100010, 7: 112010, 8: nan, 9: 81100}, 'Unnamed: 6': {0: nan, 1: 'Diff', 2: nan, 3: nan, 4: 3000, 5: 3000, 6: 10, 7: 6010, 8: nan, 9: 66100}}
df1 = pd.read_excel("D:/StackOverflow.xlsx",sheet_name = 'Input',header = [1,2,3])
Type Domestic International
Unit/Subunit Jan Feb Diff Jan Feb Diff
Unnamed: 0_level_2 2020 2021 Unnamed: 3_level_2 2020 2021 Unnamed: 6_level_2
0 Unit1 NaN NaN NaN NaN NaN NaN
1 SubUnit11 100.0 130.0 30.0 5000.0 8000.0 3000.0
2 SubUnit12 50.0 80.0 30.0 1000.0 4000.0 3000.0
3 SubUnit13 1000.0 1100.0 100.0 100000.0 100010.0 10.0
4 Total Unit1 1150.0 1310.0 160.0 106000.0 112010.0 6010.0
5 Unit2 NaN NaN NaN NaN NaN NaN
6 SubUnit21 1100.0 1130.0 30.0 15000.0 81100.0 66100.0
7 SubUnit22 150.0 180.0 30.0 11000.0 42000.0 31000.0
8 SubUnit23 11000.0 1110.0 -9890.0 1001000.0 1022010.0 21010.0
9 Total Unit2 12250.0 2420.0 -9830.0 1027000.0 1145110.0 118110.0
最佳答案
您可以使用 DataFrame.stack
reshape 然后删除不必要的行:
d ={('Domestic ', 'Jan', 2020): {'SubUnit11': 100.0, 'SubUnit12': 50.0, 'SubUnit13': 1000.0, 'Total Unit1': 1150.0, 'Unit2': np.nan, 'SubUnit21': 1100.0, 'SubUnit22': 150.0, 'SubUnit23': 11000.0, 'Total Unit2': 12250.0}, ('Domestic ', 'Feb', 2021): {'SubUnit11': 130.0, 'SubUnit12': 80.0, 'SubUnit13': 1100.0, 'Total Unit1': 1310.0, 'Unit2': np.nan, 'SubUnit21': 1130.0, 'SubUnit22': 180.0, 'SubUnit23': 1110.0, 'Total Unit2': 2420.0}, ('Domestic ', 'Diff', 'Unnamed: 3_level_2'):
{'SubUnit11': 30.0, 'SubUnit12': 30.0, 'SubUnit13': 100.0, 'Total Unit1': 160.0, 'Unit2': np.nan, 'SubUnit21': 30.0, 'SubUnit22': 30.0, 'SubUnit23': -9890.0, 'Total Unit2': -9830.0}, ('International', 'Jan', 2020): {'SubUnit11': 5000.0, 'SubUnit12': 1000.0, 'SubUnit13': 100000.0, 'Total Unit1': 106000.0, 'Unit2': np.nan, 'SubUnit21': 15000.0, 'SubUnit22': 11000.0, 'SubUnit23': 1001000.0, 'Total Unit2': 1027000.0},
('International', 'Feb', 2021): {'SubUnit11': 8000.0, 'SubUnit12': 4000.0, 'SubUnit13': 100010.0, 'Total Unit1': 112010.0, 'Unit2': np.nan, 'SubUnit21': 81100.0, 'SubUnit22': 42000.0, 'SubUnit23': 1022010.0, 'Total Unit2': 1145110.0}, ('International', 'Diff', 'Unnamed: 6_level_2'): {'SubUnit11': 3000.0, 'SubUnit12': 3000.0, 'SubUnit13': 10.0, 'Total Unit1': 6010.0, 'Unit2': np.nan, 'SubUnit21': 66100.0, 'SubUnit22': 31000.0, 'SubUnit23': 21010.0, 'Total Unit2': 118110.0}}
df = pd.DataFrame(d)
#added missing Unit1 in sample data
df.loc['Unit1'] = np.nan
df = df.loc[df.index[-1:].tolist() + df.index[:-1].tolist()]
# print (df)
#create new column Unit by index with repalce non matched Unit to NaNs
df['Unit'] = df.index.where(df.index.str.startswith('Unit'))
#forward flling NaNs
df['Unit'] = df['Unit'].ffill()
#add column to index and change order of levels in MultiIndex
df = df.set_index('Unit', append=True).swaplevel(1,0)
#reshape
df = df.stack([1, 2]).rename_axis(['Unit','SubUnit','Month','Year']).reset_index()
#remove unnecessary rows
df = df[df['Month'].ne('Diff') &
~df['Year'].str.startswith('Unnamed', na=False) &
~df['SubUnit'].str.startswith(('Total', 'Unit'), na=False)]
print (df)
Unit SubUnit Month Year Domestic International
2 Unit1 SubUnit11 Feb 2021 130.0 8000.0
3 Unit1 SubUnit11 Jan 2020 100.0 5000.0
6 Unit1 SubUnit12 Feb 2021 80.0 4000.0
7 Unit1 SubUnit12 Jan 2020 50.0 1000.0
10 Unit1 SubUnit13 Feb 2021 1100.0 100010.0
11 Unit1 SubUnit13 Jan 2020 1000.0 100000.0
18 Unit2 SubUnit21 Feb 2021 1130.0 81100.0
19 Unit2 SubUnit21 Jan 2020 1100.0 15000.0
22 Unit2 SubUnit22 Feb 2021 180.0 42000.0
23 Unit2 SubUnit22 Jan 2020 150.0 11000.0
26 Unit2 SubUnit23 Feb 2021 1110.0 1022010.0
27 Unit2 SubUnit23 Jan 2020 11000.0 1001000.0
最后是添加日期时间列进行排序:
df['Date'] = pd.to_datetime(df['Month'] + df['Year'].astype(str), format='%b%Y')
df = df.sort_values(['Unit','SubUnit','Date'], ignore_index=True)
print (df)
Unit SubUnit Month Year Domestic International Date
0 Unit1 SubUnit11 Jan 2020 100.0 5000.0 2020-01-01
1 Unit1 SubUnit11 Feb 2021 130.0 8000.0 2021-02-01
2 Unit1 SubUnit12 Jan 2020 50.0 1000.0 2020-01-01
3 Unit1 SubUnit12 Feb 2021 80.0 4000.0 2021-02-01
4 Unit1 SubUnit13 Jan 2020 1000.0 100000.0 2020-01-01
5 Unit1 SubUnit13 Feb 2021 1100.0 100010.0 2021-02-01
6 Unit2 SubUnit21 Jan 2020 1100.0 15000.0 2020-01-01
7 Unit2 SubUnit21 Feb 2021 1130.0 81100.0 2021-02-01
8 Unit2 SubUnit22 Jan 2020 150.0 11000.0 2020-01-01
9 Unit2 SubUnit22 Feb 2021 180.0 42000.0 2021-02-01
10 Unit2 SubUnit23 Jan 2020 11000.0 1001000.0 2020-01-01
11 Unit2 SubUnit23 Feb 2021 1110.0 1022010.0 2021-02-01
关于python - 如何使用 Pandas 或 Spark Dataframe 展平嵌套的 Excel 数据?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/66272366/
假设我有 3 个 DataFrame。其中一个 DataFrame 的列名不在其他两个中。 using DataFrames df1 = DataFrame([['a', 'b', 'c'], [1,
假设我有 3 个 DataFrame。其中一个 DataFrame 的列名不在其他两个中。 using DataFrames df1 = DataFrame([['a', 'b', 'c'], [1,
我有一个 largeDataFrame(多列和数十亿行)和一个 smallDataFrame(单列和 10,000 行)。 只要 largeDataFrame 中的 some_identifier 列
我有一个函数,可以在其中规范化 DataFrame 的前 N 列。我想返回规范化的 DataFrame,但不要管原来的。然而,该函数似乎也会对传递的 DataFrame 进行变异! using D
我想在 Scala 中使用指定架构在 DataFrame 上创建。我尝试过使用 JSON 读取(我的意思是读取空文件),但我认为这不是最佳实践。 最佳答案 假设您想要一个具有以下架构的数据框: roo
我正在尝试从数据框中删除一些列,并且不希望返回修改后的数据框并将其重新分配给旧数据框。相反,我希望该函数只修改数据框。这是我尝试过的,但它似乎并没有做我所除外的事情。我的印象是参数是作为引用传递的,而
我有一个包含大约 60000 个数据的庞大数据集。我会首先使用一些标准对整个数据集进行分组,接下来我要做的是将整个数据集分成标准内的许多小数据集,并自动对每个小数据集运行一个函数以获取参数对于每个小数
我遇到了以下问题,并有一个想法来解决它,但没有成功:我有一个月内每个交易日的 DAX 看涨期权和看跌期权数据。经过转换和一些计算后,我有以下 DataFrame: DaxOpt 。现在的目标是消除没有
我正在尝试做一些我认为应该是单行的事情,但我正在努力把它做好。 我有一个大数据框,我们称之为lg,还有一个小数据框,我们称之为sm。每个数据帧都有一个 start 和一个 end 列,以及多个其他列所
我有一个像这样的系列数据帧的数据帧: state1 state2 state3 ... sym1 sym
我有一个大约有 9k 行和 57 列的数据框,这是“df”。 我需要一个新的数据框:'df_final'- 对于“df”的每一行,我必须将每一行复制“x”次,并将每一行中的日期逐一增加,也就是“x”次
假设有一个 csv 文件如下: # data.csv 0,1,2,3,4 a,3.0,3.0,3.0,3.0,3.0 b,3.0,3.0,3.0,3.0,3.0 c,3.0,3.0,3.0,3.0,3
我只想知道是否有人对以下问题有更优雅的解决方案: 我有两个 Pandas DataFrame: import pandas as pd df1 = pd.DataFrame([[1, 2, 3], [
我有一个 pyspark 数据框,我需要将其转换为 python 字典。 下面的代码是可重现的: from pyspark.sql import Row rdd = sc.parallelize([R
我有一个 DataFrame,我想在 @chain 的帮助下对其进行处理。如何存储中间结果? using DataFrames, Chain df = DataFrame(a = [1,1,2,2,2
我有一个包含 3 列的 DataFrame,名为 :x :y 和 :z,它们是 Float64 类型。 :x 和 "y 在 (0,1) 上是 iid uniform 并且 z 是 x 和 y 的总和。
这个问题在这里已经有了答案: pyspark dataframe filter or include based on list (3 个答案) 关闭 2 年前。 只是想知道是否有任何有效的方法来过
我刚找到这个包FreqTables ,它允许人们轻松地从 DataFrames 构建频率表(我正在使用 DataFrames.jl)。 以下代码行返回一个频率表: df = CSV.read("exa
是否有一种快速的方法可以为 sort 指定自定义订单?/sort!在 Julia DataFrames 上? julia> using DataFrames julia> srand(1); juli
在 Python Pandas 和 R 中,可以轻松去除重复的列 - 只需加载数据、分配列名,然后选择那些不重复的列。 使用 Julia Dataframes 处理此类数据的最佳实践是什么?此处不允许
我是一名优秀的程序员,十分优秀!