- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
pandas
(v. 0.18.0) 似乎正在为 的
。我有一个类似于以下内容的数据集:values
属性执行一些“幕后”转换,我遇到了一些困难>数据框
data = [(1473897600000000, 9.9166, 1.8621, 15),
(1473897660000000, 19.9166, 3.8621, 20),
(1473897720000000, 29.9166, 5.8621, 25),
(1473897780000000, 39.9166, 7.8621, 30)]
每个元组的第一个元素代表一个以微秒为单位的 POSIX UTC 时间戳。每个元素的(name, dtype)
由下面的记录数组给出:
dtype = [('timestamp', np.dtype('int64')),
('a', np.dtype('float32')),
('b', np.dtype('float32')),
('c', np.dtype('uint8'))]
我使用以下代码将其转换为 DataFrame
:
data_array = np.array(data, dtype=dtype)
df = pd.DataFrame.from_records(data_array)
但是,下面的代码给出了一些奇怪的结果(至少对我而言):
ts_orig = np.array([x[0] for x in data], dtype=float)
ts_column = df['timestamp'].values.astype(float)
ts_values = df.values[:, 0]
ts_diff = ts_values - ts_column
print(np.column_stack((ts_orig, ts_column, ts_values, ts_diff)))
# OUTPUT
# ts_orig ts_column ts_values ts_diff
[[ 1.47389760e+15 1.47389760e+15 1.47389762e+15 1.87351040e+07]
[ 1.47389766e+15 1.47389766e+15 1.47389762e+15 -4.12648960e+07]
[ 1.47389772e+15 1.47389772e+15 1.47389775e+15 3.29528320e+07]
[ 1.47389778e+15 1.47389778e+15 1.47389775e+15 -2.70471680e+07]]
很明显,将时间戳值直接转换为相同的浮点值没有问题(第 1 列和第 2 列)。 DataFrame
中仍保留准确的值,但是当整个 DataFrame
通过 DataFrame.values
属性(第 3 列)转换为数组时发生了一些事情来扰乱时间戳值并将它们疯狂地扔掉。
为什么会发生这种情况,我该如何预防?
最佳答案
冒着听起来很愚蠢的风险,我会回答我自己的问题,首先应该更深入地挖掘一下。问题的根源是转换为最低公分母类型,引用自 DataFrame.values文档:
The dtype will be a lower-common-denominator dtype (implicit upcasting); that is to say if the dtypes (even of numeric types) are mixed, the one that accommodates all will be chosen. Use this with care if you are not dealing with the blocks
在这种情况下,选择的最适应类型是 float32
,因此所有值都将转换为该类型。这可以存储 int64
时间戳的值,但由于 float32
类型的数字精度问题,时间戳值会对齐最近的 float32
值。如果将原始数据中的 dtype
值之一更改为 float64
,问题就会悄无声息地消失。
不过这是一个后续问题。给定包含 64 位整数类型和浮点类型的混合数据集,最好的做法不是选择最宽的类型(64 位),这样就不会丢失精度吗?
关于python - Pandas DataFrame.values 转换错误或功能?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39794731/
假设我有 3 个 DataFrame。其中一个 DataFrame 的列名不在其他两个中。 using DataFrames df1 = DataFrame([['a', 'b', 'c'], [1,
假设我有 3 个 DataFrame。其中一个 DataFrame 的列名不在其他两个中。 using DataFrames df1 = DataFrame([['a', 'b', 'c'], [1,
我有一个 largeDataFrame(多列和数十亿行)和一个 smallDataFrame(单列和 10,000 行)。 只要 largeDataFrame 中的 some_identifier 列
我有一个函数,可以在其中规范化 DataFrame 的前 N 列。我想返回规范化的 DataFrame,但不要管原来的。然而,该函数似乎也会对传递的 DataFrame 进行变异! using D
我想在 Scala 中使用指定架构在 DataFrame 上创建。我尝试过使用 JSON 读取(我的意思是读取空文件),但我认为这不是最佳实践。 最佳答案 假设您想要一个具有以下架构的数据框: roo
我正在尝试从数据框中删除一些列,并且不希望返回修改后的数据框并将其重新分配给旧数据框。相反,我希望该函数只修改数据框。这是我尝试过的,但它似乎并没有做我所除外的事情。我的印象是参数是作为引用传递的,而
我有一个包含大约 60000 个数据的庞大数据集。我会首先使用一些标准对整个数据集进行分组,接下来我要做的是将整个数据集分成标准内的许多小数据集,并自动对每个小数据集运行一个函数以获取参数对于每个小数
我遇到了以下问题,并有一个想法来解决它,但没有成功:我有一个月内每个交易日的 DAX 看涨期权和看跌期权数据。经过转换和一些计算后,我有以下 DataFrame: DaxOpt 。现在的目标是消除没有
我正在尝试做一些我认为应该是单行的事情,但我正在努力把它做好。 我有一个大数据框,我们称之为lg,还有一个小数据框,我们称之为sm。每个数据帧都有一个 start 和一个 end 列,以及多个其他列所
我有一个像这样的系列数据帧的数据帧: state1 state2 state3 ... sym1 sym
我有一个大约有 9k 行和 57 列的数据框,这是“df”。 我需要一个新的数据框:'df_final'- 对于“df”的每一行,我必须将每一行复制“x”次,并将每一行中的日期逐一增加,也就是“x”次
假设有一个 csv 文件如下: # data.csv 0,1,2,3,4 a,3.0,3.0,3.0,3.0,3.0 b,3.0,3.0,3.0,3.0,3.0 c,3.0,3.0,3.0,3.0,3
我只想知道是否有人对以下问题有更优雅的解决方案: 我有两个 Pandas DataFrame: import pandas as pd df1 = pd.DataFrame([[1, 2, 3], [
我有一个 pyspark 数据框,我需要将其转换为 python 字典。 下面的代码是可重现的: from pyspark.sql import Row rdd = sc.parallelize([R
我有一个 DataFrame,我想在 @chain 的帮助下对其进行处理。如何存储中间结果? using DataFrames, Chain df = DataFrame(a = [1,1,2,2,2
我有一个包含 3 列的 DataFrame,名为 :x :y 和 :z,它们是 Float64 类型。 :x 和 "y 在 (0,1) 上是 iid uniform 并且 z 是 x 和 y 的总和。
这个问题在这里已经有了答案: pyspark dataframe filter or include based on list (3 个答案) 关闭 2 年前。 只是想知道是否有任何有效的方法来过
我刚找到这个包FreqTables ,它允许人们轻松地从 DataFrames 构建频率表(我正在使用 DataFrames.jl)。 以下代码行返回一个频率表: df = CSV.read("exa
是否有一种快速的方法可以为 sort 指定自定义订单?/sort!在 Julia DataFrames 上? julia> using DataFrames julia> srand(1); juli
在 Python Pandas 和 R 中,可以轻松去除重复的列 - 只需加载数据、分配列名,然后选择那些不重复的列。 使用 Julia Dataframes 处理此类数据的最佳实践是什么?此处不允许
我是一名优秀的程序员,十分优秀!