- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在尝试使用“where”和“count”函数的组合来重新编码 pandas 中的列值。期望的结果是从“valence_median_split”列中标记为“Low_Valence”的行中选择 200 个随机行,并从标记为“Low_Valence”的行中选择 200 个随机行。然而,这似乎不起作用。
这是 df:
df.head()
Out[34]:
ID Category Num Vert_Horizon Description Fem_Valence_Mean \
0 Animals_001_h Animals 1 h Dead Stork 2.40
1 Animals_002_v Animals 2 v Lion 6.31
2 Animals_003_h Animals 3 h Snake 5.14
3 Animals_004_v Animals 4 v Wolf 4.55
4 Animals_005_h Animals 5 h Bat 5.29
Fem_Valence_SD Fem_Av_Ap_Mean Fem_Av/Ap_SD Arousal_Mean \
0 1.30 3.03 1.47 6.72
1 2.19 5.96 2.24 6.69
2 1.19 5.14 1.75 5.34
3 1.87 4.82 2.27 6.84
4 1.56 4.61 1.81 5.50
Luminance Contrast JPEG_size80 LABL LABA \
0 ... 126.05 68.45 263028 51.75 -0.39
1 ... 123.41 32.34 250208 52.39 10.63
2 ... 135.28 59.92 190887 55.45 0.25
3 ... 122.15 75.10 282350 49.84 3.82
4 ... 131.81 59.77 329325 54.26 -0.34
LABB Entropy Classification temp_selection valence_median_split
0 16.93 7.86 High Low_Valence
1 30.30 6.71 NaN High_Valence
2 4.41 7.83 High Low_Valence
3 1.36 7.69 High Low_Valence
4 -0.95 7.82 High Low_Valence
[5 rows x 35 columns]
这是我尝试过的:
df['temp_selection'] = ''
df['temp_selection'] = np.where(df['valence_median_split'] == 'Low_Valence', df['valence_median_split'].sample(n=200).reindex(df.index), 'Low')
df['temp_selection'] = np.where(df['valence_median_split'] == 'High_Valence', df['valence_median_split'].sample(n=200).reindex(df.index), 'High')
df.temp_selection.unique()
但是,结果表明这不起作用:
array(['High', nan, 'High_Valence'], dtype=object)
我想知道组合这些功能是否有错误。
这是一个可重现的示例:
d = {'col1': [1, 2, 3, 4, 3, 3, 2, 2], 'col2': [1, 2, 3, 4, 3, 3, 2, 2]}
df = pd.DataFrame(data=d)
df['valence_median_split'] = ''
#Get median of valence
valence_median = df['col1'].median()
df['valence_median_split'] = np.where(df['col2'] < valence_median, 'Low_Valence', 'High_Valence')
df['temp_selection'] = ''
df['temp_selection'] = np.where(df['valence_median_split'] == 'Low_Valence', df['valence_median_split'].sample(n=2).reindex(df.index), 'Low')
df['temp_selection'] = np.where(df['valence_median_split'] == 'High_Valence', df['valence_median_split'].sample(n=2).reindex(df.index), 'High')
df
col1 col2 valence_median_split temp_selection
0 1 1 Low_Valence High
1 2 2 Low_Valence High
2 3 3 High_Valence High_Valence
3 4 4 High_Valence NaN
4 3 3 High_Valence NaN
5 3 3 High_Valence High_Valence
6 2 2 Low_Valence High
7 2 2 Low_Valence High
从上面的 df 中可以看出,“temp_selection”中有一个不应该存在的“High_Valence”分类,并且没有“Low”分类。
最佳答案
想法是获取过滤数据样本的索引,而不是双np.where
使用numpy.select
:
low = df.loc[df['valence_median_split'] == 'Low_Valence',
'valence_median_split'].sample(n=2).index
high = df.loc[df['valence_median_split'] == 'High_Valence',
'valence_median_split'].sample(n=2).index
df['temp_selection'] = np.select([df.index.isin(low), df.index.isin(high)],
['Low', 'High'], default=np.nan)
或者:
df['temp_selection'] = np.where(df.index.isin(low), 'Low',
np.where(df.index.isin(high), 'High', np.nan))
print (df)
col1 col2 valence_median_split temp_selection
0 1 1 Low_Valence nan
1 2 2 Low_Valence Low
2 3 3 High_Valence nan
3 4 4 High_Valence nan
4 3 3 High_Valence High
5 3 3 High_Valence High
6 2 2 Low_Valence nan
7 2 2 Low_Valence Low
或者:
df.loc[low, 'temp_selection'] = 'Low'
df.loc[high, 'temp_selection'] = 'High'
print (df)
col1 col2 valence_median_split temp_selection
0 1 1 Low_Valence NaN
1 2 2 Low_Valence Low
2 3 3 High_Valence NaN
3 4 4 High_Valence NaN
4 3 3 High_Valence High
5 3 3 High_Valence High
6 2 2 Low_Valence NaN
7 2 2 Low_Valence Low
另一个IDE是使用numpy.random.choice
:
low = np.random.choice(df.index[df['valence_median_split'] == 'Low_Valence'], size=2)
high = np.random.choice(df.index[df['valence_median_split']== 'High_Valence'], size=2)
df.loc[low, 'temp_selection'] = 'Low'
df.loc[high, 'temp_selection'] = 'High'
关于python - 如何修复 np.where 函数的错误?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55432823/
有时评估积分非常困难,但很容易验证解是否正确。在我看来它至少应该是 np,但我对这个概念的理解是有限的,我可能会遗漏一些东西 编辑:为了清楚起见,我很好奇算法的复杂性,该算法找到函数的反导数以解决不定
我对这三个类别的理解是否正确? 要证明问题 X 是 NP: 表明 X 可以在多项式时间内确定性地得到验证(或者X 可以使用 NTM 解决) 要证明问题 X 是 NP 完全的: 表明 X 可以在多项式时
有什么区别NP , NP-完全和 NP-Hard ? 我知道网上有很多资源。我想阅读你的解释,原因是它们可能与外面的不同,或者有一些我不知道的东西。 最佳答案 我假设您正在寻找直观的定义,因为技术定义
我正在寻找一种方法来检查 numpy 数组是 np.float64 还是 np.float32。这适用于 np.float64: a = np.random.rand(10) if not issub
我知道 np.nanargmin 找到列表中不是 NaN 的最小数字。但是,如果调用数组 [np.nan, np.inf],它会产生 0,这是一个 NaN。我发现这种行为很奇怪,我只是想知道以这种方式
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 这个问题似乎与 help center 中定义的范围内的编程无关。 . 关闭 8 年前。 Improve
我很好奇使用 np.empty 到底有多大不同?而不是 np.zeros ,以及关于 np.ones 的区别.我运行这个小脚本来对每个创建大型数组所花费的时间进行基准测试: import numpy
在操作矩阵的时候,不同的接口对于矩阵的输入维度要求不同,输入可能为1-D,2-D,3-D等等。下面介绍一下使用Numpy进行矩阵维度变更的相关方法。主要包括以下几种: 1、np.newaxis扩充
除了使用一组 or 语句之外 isinstance( x, np.float64 ) 或 isinstance( x, np.float32 ) 或 isinstance( np.float16 )
我尝试了以下代码,但没有发现 np.dot 和 np.multiply 与 np.sum 之间的区别 这里是 np.dot 代码 logprobs = np.dot(Y, (np.log(A2)).T
我编写了一些程序来更新 numpy在每次迭代中列出并对其进行一些操作。迭代次数取决于时间。例如在 1 秒内,可能有 1000 到 2500 次迭代。这意味着 numpy 列表中的项目对于运行程序 1
我有以下两个数据框: a = pd.DataFrame([[1,2, 3],[4,3,6], [np.nan, 2, np.nan]]) 0 1 2 0 1.0 2 3.0 1
我有一个包含很多非零值的数组。当我使用以下方法计算非零项目总数时,我得到了 2 个不同的结果: 1) non_zero_weights = np.any(np.not_equal(lr_l1.coef
我对这么多int有点挣扎cython 中的数据类型。 np.int, np.int_, np.int_t, int 我猜 int在纯python中相当于np.int_ , 那么 np.int 在哪里来
如果您要选择以下三种初始化零数组的方法之一,您会选择哪一种以及为什么? my_arr_1 = np.full(size, 0) 或 my_arr_2 = np.zeros(size) 或 my_arr
我正在使用 np.select 根据应用于其他列的多个条件创建一个新列。这是一个简单的例子: df = pd.DataFrame({'A': [0, 3, 4], 'B': [10, 0, 2]})
我正在使用 np.select 根据应用于其他列的多个条件创建一个新列。这是一个简单的例子: df = pd.DataFrame({'A': [0, 3, 4], 'B': [10, 0, 2]})
我正在读这个code ,用于从头开始实现线性回归: # convert from data frames to numpy matrices X = np.matrix(X.values) y = n
我正在解压缩具有许多不同数据类型的大型二进制文件 (~1GB)。我正处于创建循环以隐藏每个字节的早期阶段。我一直在使用 struct.unpack,但最近认为如果我使用 numpy 它会运行得更快。然
我需要从依存分析树中提取形式为 NP-VP-NP 的三元组,作为 Stanford Parser 中词汇化分析的输出。 执行此操作的最佳方法是什么。例如如果解析树如下: (ROOT (S
我是一名优秀的程序员,十分优秀!