- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
TL:DR
我想按主题和 30 天时间段分组,但 30 天时间段并未按主题个性化。
处理此问题的最佳方法是什么?
完整解释
我有一个参与者样本,他们都在不同时间开始了一项科学研究。我想使用 TimeGrouper 在他们参与研究的第一天后每 30 天进行一次分割。
经过一些搜索,这似乎是不可能的,因为很难为 TimeGrouper 指定起点。因此,作为代理人,我可能会为每个人使用第一个观察到的时间戳。
为此,我尝试按参与者 ID 和 TimeGrouper 进行分组,但是这 30 天似乎是从全局最早的时间点开始计算的,而不是每个参与者的最早时间点。
我知道这有点复杂,所以这里有一些代码:
这是一个代表我正在使用的数据类型的假数据框:
fakedf = pd.DataFrame({'participantID':['subj1', 'subj1', 'subj1', 'subj1', 'subj2', 'subj2', 'subj2', 'subj2'],
'timestamp':['2015-06-25 01:12:00', '2015-06-30 11:02:00', '2015-07-05 09:33:00', '2015-07-28 07:22:00',
'2015-07-25 01:11:00', '2015-07-31 11:02:00', '2015-08-07 09:33:00', '2015-08-10 07:22:00'], 'studystart':['2015-06-20 00:00:00', '2015-06-20 00:00:00', '2015-06-20 00:00:00', '2015-06-20 00:00:00',
'2015-07-25 00:00:00', '2015-07-25 00:00:00', '2015-07-25 00:00:00', '2015-07-25 00:00:00']})
fakedf.index = pd.to_datetime(fakedf.timestamp)
上面的代码应该创建这个数据框:
下面是我希望实际工作的代码:
fakedf.groupby(['participantID', pd.TimeGrouper(freq="30D", closed='left')]).count()
这是输出:
您可以看到 subj1 和 subj2 从 2015 年 6 月 25 日开始它们的时间分组,尽管事实上 subj2 直到 2015 年 7 月 25 日才具有真正的时间戳。
如果我可以通过以下任一方式开始每 30 天的时间分组,我会很高兴:
a) 研究开始日期,或
b) 每个参与者的第一个时间戳
我有一个我知道可行的低技术解决方案,但我希望有一个漂亮、优雅的 TimeGrouper 解决方案。
提前致谢!
最佳答案
要让 TimeGrouper
处于参与者级别,首先在 'participantID'
上执行 groupby
然后在每个组中执行TimeGrouper
上的另一个 groupby
。为了清楚起见,我将第二个 groupby
分离为一个单独的函数。
def inner_groupby(grp, key=None):
return grp.groupby(pd.TimeGrouper(key=key, freq='30D')).count()
fakedf.groupby('participantID').apply(inner_groupby)
结果输出:
participantID studystart timestamp
participantID timestamp
subj1 2015-06-25 01:12:00 3 3 3
2015-07-25 01:12:00 1 1 1
subj2 2015-07-25 01:11:00 4 4 4
您不需要为 TimeGrouper
指定一个 key
。默认情况下,我相信它会使用索引。但是,如果您希望 TimeGrouper
位于其他列之上,例如 'studystart'
,您可以通过 key
参数传递它:
fakedf.groupby('participantID').apply(inner_groupby, key='studystart')
key='studystart'
的结果输出:
participantID timestamp
participantID studystart
subj1 2015-06-20 4 4
subj2 2015-07-25 4 4
关于python - PANDAS TimeGrouper 具有用于下采样的个性化起点,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37954489/
pandas.crosstab 和 Pandas 数据透视表似乎都提供了完全相同的功能。有什么不同吗? 最佳答案 pivot_table没有 normalize争论,不幸的是。 在 crosstab
我能找到的最接近的答案似乎太复杂:How I can create an interval column in pandas? 如果我有一个如下所示的 pandas 数据框: +-------+ |
这是我用来将某一行的一列值移动到同一行的另一列的当前代码: #Move 2014/15 column ValB to column ValA df.loc[(df.Survey_year == 201
我有一个以下格式的 Pandas 数据框: df = pd.DataFrame({'a' : [0,1,2,3,4,5,6], 'b' : [-0.5, 0.0, 1.0, 1.2, 1.4,
所以我有这两个数据框,我想得到一个新的数据框,它由两个数据框的行的克罗内克积组成。正确的做法是什么? 举个例子:数据框1 c1 c2 0 10 100 1 11 110 2 12
TL;DR:在 pandas 中,如何绘制条形图以使其 x 轴刻度标签看起来像折线图? 我制作了一个间隔均匀的时间序列(每天一个项目),并且可以像这样很好地绘制它: intensity[350:450
我有以下两个时间列,“Time1”和“Time2”。我必须计算 Pandas 中的“差异”列,即 (Time2-Time1): Time1 Time2
从这个 df 去的正确方法是什么: >>> df=pd.DataFrame({'a':['jeff','bob','jill'], 'b':['bob','jeff','mike']}) >>> df
我想按周从 Pandas 框架中的列中累积计算唯一值。例如,假设我有这样的数据: df = pd.DataFrame({'user_id':[1,1,1,2,2,2],'week':[1,1,2,1,
数据透视表的表示形式看起来不像我在寻找的东西,更具体地说,结果行的顺序。 我不知道如何以正确的方式进行更改。 df示例: test_df = pd.DataFrame({'name':['name_1
我有一个数据框,如下所示。 Category Actual Predicted 1 1 1 1 0
我有一个 df,如下所示。 df: ID open_date limit 1 2020-06-03 100 1 2020-06-23 500
我有一个 df ,其中包含与唯一值关联的各种字符串。对于这些唯一值,我想删除不等于单独列表的行,最后一行除外。 下面使用 Label 中的各种字符串值与 Item 相关联.所以对于每个唯一的 Item
考虑以下具有相同名称的列的数据框(显然,这确实发生了,目前我有一个像这样的数据集!:() >>> df = pd.DataFrame({"a":range(10,15),"b":range(5,10)
我在 Pandas 中有一个 DF,它看起来像: Letters Numbers A 1 A 3 A 2 A 1 B 1 B 2
如何减去两列之间的时间并将其转换为分钟 Date Time Ordered Time Delivered 0 1/11/19 9:25:00 am 10:58:00 am
我试图理解 pandas 中的下/上百分位数计算,但有点困惑。这是它的示例代码和输出。 test = pd.Series([7, 15, 36, 39, 40, 41]) test.describe(
我有一个多索引数据框,如下所示: TQ bought HT Detailed Instru
我需要从包含值“低”,“中”或“高”的数据框列创建直方图。当我尝试执行通常的df.column.hist()时,出现以下错误。 ex3.Severity.value_counts() Out[85]:
我试图根据另一列的长度对一列进行子串,但结果集是 NaN .我究竟做错了什么? import pandas as pd df = pd.DataFrame([['abcdefghi','xyz'],
我是一名优秀的程序员,十分优秀!