- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有一个包含 5 列的数据框,我正在使用 pandas 和 numpy 来编辑和处理数据。
id calv1 calv2 calv3 calv4
1 2006-08-29 2007-08-29 2008-08-29 2009-08-29
2 NaT NaT NaT NaT
3 2006-08-29 NaT NaT NaT
4 2006-08-29 2007-08-29 2010-08-29 NaT
5 2006-08-29 2013-08-29 NaT NaT
6 2006-08-29 NaT 2013-08-29 2013-08-292
我想创建另一个列来计算每个 id 出现的“calv”的数量。
id calv1 calv2 calv3 calv4 no_calv
1 2006-08-29 2007-08-29 2008-08-29 2009-08-29 4
2 NaT NaT NaT NaT 0
3 2006-08-29 NaT NaT NaT 1
4 2006-08-29 2007-08-29 2010-08-29 NaT 3
5 2006-08-29 2013-08-29 NaT NaT 2
6 2006-08-29 NaT 2013-08-29 2013-08-292 NaN #or some other value
这是我的最后一次尝试:
nat = np.datetime64('NaT')
df.loc[
(df["calv1"] == nat) & (df["calv2"] == nat) &
(df["calv3"] == nat) & (df["calv4"] == nat),
"no_calv"] = 0
#1 calvings
df.loc[
(df["calv1"] != nat) & (df["calv2"] == nat) &
(df["calv3"] == nat) & (df["calv4"] == nat),
"no_calv"] = 1
#2 calvings
df.loc[
(df["calv1"] != nat) & (df["calv2"] != nat) &
(df["calv3"] == nat) & (df["calv4"] == nat),
"no_calv"] = 2
#3 calvings
df.loc[
(df["calv1"] != nat) & (df["calv2"] != nat) &
(df["calv3"] != nat) & (df["calv4"] == nat),
"no_calv"] = 3
#4 or more calvings
df.loc[
(df["calv1"] != nat) & (df["calv2"] != nat) &
(df["calv3"] != nat) & (df["calv4"] != nat),
"no_calv"] = 4
但结果是整个“no_calv”列是
4.0
..
(df["calv1"] != "NaT")
..
和
..
(df["calv1"] != pd.nat)
..
结果总是
4.0 对于整个列或只是
南。
id yx calv1 calv2 calv3 calv4 no_calv
1 27 2006-08-29 2007-08-29 2008-08-29 2009-08-29 4
2 34 NaT NaT NaT NaT 0
3 89 2006-08-29 NaT NaT NaT 1
4 23 2006-08-29 2007-08-29 2010-08-29 NaT 3
5 11 2006-08-29 2013-08-29 NaT NaT 2
6 43 2006-08-29 NaT 2013-08-29 2013-08-292 NaN #or some other value
最佳答案
另一种方法是使用 pd.Series.last_valid_index
和 pd.DataFrame.count
:
>>> df2 = df.copy()
>>> df2.columns = np.arange(df2.shape[1]) + 1
>>> mask = (df2.apply(pd.Series.last_valid_index, axis=1).fillna(0) == df2.count(axis=1))
>>> df.loc[mask, 'no_calv'] = df.notna().sum(1)
>>> df
calv1 calv2 calv3 calv4 no_calv
id
1 2006-08-29 2007-08-29 2008-08-29 2009-08-29 4.0
2 NaN NaN NaN NaN 0.0
3 2006-08-29 NaN NaN NaN 1.0
4 2006-08-29 2007-08-29 2010-08-29 NaN 3.0
5 2006-08-29 2013-08-29 NaN NaN 2.0
6 2006-08-29 NaN 2013-08-29 2013-08-292 NaN
解释:
pd.Series.last_valid_index
返回
的位置最后有效数据 在一个系列中。将它应用于您的行将告诉列位置最后一个有效数据的位置(之后是所有
NaNs/NaTs
)。
pd.Series.last_valid_index
在每一行:
>>> df2.columns = np.arange(df2.shape[1]) + 1
>>> df2
1 2 3 4
id
1 2006-08-29 2007-08-29 2008-08-29 2009-08-29
2 NaN NaN NaN NaN
3 2006-08-29 NaN NaN NaN
4 2006-08-29 2007-08-29 2010-08-29 NaN
5 2006-08-29 2013-08-29 NaN NaN
6 2006-08-29 NaN 2013-08-29 2013-08-292
>>> df2.apply(pd.Series.last_valid_index, axis=1).fillna(0)
id
1 4.0
2 0.0
3 1.0
4 3.0
5 2.0
6 4.0
dtype: float64
所以在第 1 行,最后一个有效数据在第 4 列,第 2 行没有有效数据,依此类推。
>>> df2.count(axis=1)
id
1 4
2 0
3 1
4 3
5 2
6 3
dtype: int64
因此,第 1 行有 4 个有效值,第 2 行没有有效值,依此类推。现在如果全部
NaN/NaT
值接近行尾,计数应与我们上面计算的最后一个有效数据位置匹配:
>>> df2.apply(pd.Series.last_valid_index, axis=1).fillna(0) == df2.count(axis=1)
id
1 True
2 True
3 True
4 True
5 True
6 False
dtype: bool
正如所见,它匹配除最后一行之外的所有行,因为 NaT 出现在最后一行的有效值的中间。我们可以将其用作掩码,然后填充总和:
>>> mask = (df2.apply(pd.Series.last_valid_index, axis=1).fillna(0) == df2.count(axis=1))
>>> df.loc[mask, 'no_calv'] = df.notna().sum(1)
>>> df
calv1 calv2 calv3 calv4 no_calv
id
1 2006-08-29 2007-08-29 2008-08-29 2009-08-29 4.0
2 NaN NaN NaN NaN 0.0
3 2006-08-29 NaN NaN NaN 1.0
4 2006-08-29 2007-08-29 2010-08-29 NaN 3.0
5 2006-08-29 2013-08-29 NaN NaN 2.0
6 2006-08-29 NaN 2013-08-29 2013-08-292 NaN
关于python - 如何使用 df.loc (或其他一些方法)根据特定条件创建新列?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/67923813/
我在 Apple 的相关文档中没有找到这个:是否必须包含字段“loc-args”,即使您不需要任何参数并且它是空的,当提供字段“loc-key”时“? 谢谢 最佳答案 loc-key A key to
我有一个 Fortran 90 项目,它广泛使用 loc 函数来获取数组的地址(与 Matlab 互操作的 API 的一部分)。 这段代码在 Mac 和 Linux 上编译并运行在 Intel 和 g
让我先概述一下我要解决的问题。我试图根据包含“-1”的行中的其他两个值,将值“-1”替换为同一列中的另一个值。为了更清楚,这是一个例子。在下面的数据框中,“所有者”列中有两个缺失值。我想要的是将每个
我所做的所有研究都指向使用 loc作为通过 col(s) 值过滤数据帧的方法,今天我正在阅读 this我通过我测试的例子发现,loc当按值过滤 cols 时,不是真的需要: 前任: df = pd.D
这个问题已经有答案了: How to deal with SettingWithCopyWarning in Pandas (21 个回答) 已关闭 4 年前。 假设我有一个像这样的数据框,第一列“密
我想在我的应用程序打开时将来自推送通知负载的 loc-args 数组的第二个元素设置为 loc-key 转换,例如在 didReceiveRemoteNotification 方法中。 有效负载中的
以下赋值有何不同? df.loc[rows, [col]] = ... df.loc[rows, col] = ... 例如: r = pd.DataFrame({"response": [1,1,1
在给定 h 文件中的 LOC 数量的情况下,我可以估计最佳代码(桌面应用程序)中的 C++ LOC 数量是多少? 背景:我正在进行工作量估算和将 C++ 软件移植到 C# 的计划。 我的第一个想法是创
目标:通过实现可重用的 JS(或 ASP?)消除初始 DOM 中的冗余。 在这个例子中,我想写一些 JS 来将 div @id loc-A 的内容“bump”到 div @id loc-B,而不必在页
我正在尝试提高代码性能。我使用 Pandas 0.19.2 和 Python 3.5。 我刚刚意识到 .loc 一次写入一大堆值的速度非常不同,具体取决于数据帧初始化。 谁能解释为什么,并告诉我什么是
自己试试看: import pandas as pd s=pd.Series(xrange(5000000)) %timeit s.loc[[0]] # You need pandas 0.15.1
是否可以找到在特定提交中添加的存储库的总代码行数? 最佳答案 流失扩展做我需要的: hg churn --rev 100 关于mercurial - 查找在特定提交中添加的存储库 LOC,我们在Sta
虽然 LOC(# 代码行数)是衡量代码复杂性的一个有问题的方法,但它是最流行的方法,如果使用得非常小心,至少可以粗略估计代码库的相对复杂性(即,如果一个程序是 10KLOC)另一个是 100KLOC,
我即将在大型项目上使用SonarQube,并一直在搜索有关LOC限制的信息进行分析,但他们的网站上没有相关信息。有没有?如果是的话,限制是多少? 最佳答案 无论是在单个项目内还是跨实例,都没有硬性限制
我正在使用 SonarQube Developer Edition 5.6.7 (LTS) 并购买了支持 500 万 LOC 的许可证。我们通过拥有项目 key 和模板来使用 RBAC 和 Sonar
是否有人遇到过这样的情况:用 Java 编写并由(例如)法国程序员编写的现有代码库必须转换为英语程序员可以理解的代码?这里的问题是变量/方法/类名称、注释等都将采用该特定语言。 现在有可用的自动化解决
给定 df 'AB': A = pd.DataFrame([[1, 5, 2], [2, 4, 4], [3, 3, 1], [4, 2, 2], [5, 1, 4]], colum
我有一个像这样的数据框: import pandas as pd df = pd.DataFrame({'col1': ['abc', 'def', 'tre'],
如果我有一个 pandas.DataFrame具有不同类型的列(例如 int64 和 float64 ),从 int 获取单个元素列 .loc索引将输出转换为 float : import panda
我有一个大约 400k IP 的列表(存储在 pandas DataFrame df_IP 中)使用 maxming geoIP 数据库进行地理定位。我使用城市版本,并检索城市、纬度、经度和县代码(法
我是一名优秀的程序员,十分优秀!