gpt4 book ai didi

c# - C# 中的 float 学是否一致?是真的吗?

转载 作者:IT王子 更新时间:2023-10-29 03:31:25 26 4
gpt4 key购买 nike

不,这不是另一个“为什么 (1/3.0)*3 != 1” 问题。

我最近一直在阅读有关 float 的文章;具体来说,相同的计算如何在不同的架构或优化设置上给出不同的结果

这是存储重播的视频游戏的问题,或者是 peer-to-peer networked (与服务器-客户端相反),它依赖于所有客户端在每次运行程序时生成完全相同的结果——一次浮点计算中的微小差异可能导致不同机器(甚至on the same machine! )

即使在“跟随”IEEE-754 的处理器中也会发生这种情况,主要是因为某些处理器(即 x86)使用 double extended precision .也就是说,它们使用 80 位寄存器进行所有计算,然后截断为 64 位或 32 位,从而导致与使用 64 位或 32 位进行计算的机器不同的舍​​入结果。

我在网上看到了这个问题的几种解决方案,但都是针对 C++,而不是 C#:

  • 使用 _controlfp_s 禁用双扩展精度模式(以便所有 double 计算都使用 IEEE-754 64 位) (Windows)、_FPU_SETCW (Linux?) 或 fpsetprec (BSD)。
  • 始终使用相同的优化设置运行相同的编译器,并要求所有用户使用相同的 CPU 架构(不可跨平台运行)。因为我的“编译器”实际上是 JIT,每次程序运行时可能会进行不同的优化,所以我认为这是不可能的。
  • 使用定点运算,同时避免floatdoubledecimal 可以用于此目的,但速度会慢得多,而且 System.Math 库函数都不支持它。

那么,这甚至是 C# 中的问题吗?如果我只打算支持 Windows(而不是 Mono)怎么办?

如果是,有没有办法强制我的程序以正常的 double 运行?

如果没有,是否有任何库可以帮助保持浮点计算的一致性?

最佳答案

我知道没有办法在 .net 中使普通浮点具有确定性。允许 JITter 创建在不同平台(或不同版本的 .net 之间)表现不同的代码。因此,在确定性 .net 代码中使用普通 float 是不可能的。

我考虑的解决方法:

  1. 用 C# 实现 FixedPoint32。虽然这不是太难(我有一个半完成的实现),但非常小的值范围使用起来很烦人。您必须始终小心,以免溢出或失去太多精度。最后我发现这并不比直接使用整数容易。
  2. 使用 C# 实现 FixedPoint64。我发现这很难做到。对于某些操作,128 位的中间整数会很有用。但是 .net 不提供这种类型。
  3. 实现自定义 32 位 float 。缺少 BitScanReverse 内在函数会在实现时引起一些麻烦。但目前我认为这是最有希望的路径。
  4. 使用 native 代码进行数学运算。对每个数学运算产生委托(delegate)调用的开销。

我刚刚开始使用 32 位 float 学的软件实现。它可以在我的 2.66GHz i3 上每秒进行大约 7000 万次加法/乘法运算。 https://github.com/CodesInChaos/SoftFloat .显然,它仍然非常不完整且存在错误。

关于c# - C# 中的 float 学是否一致?是真的吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/6683059/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com