- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
科学记数法定义了数字应该如何使用符号、数字和指数来显示,但它没有声明可视化是标准化的。
一个例子:-2.34e-2(归一化科学计数法)与-0.234e-1(科学计数法)相同
我能否依赖以下代码始终生成规范化结果?编辑:答案中指出的 NAN 和 INF 除外。
template<typename T>
static std::string toScientificNotation(T number, unsigned significantDigits)
{
if (significantDigits > 0) {
significantDigits--;
}
std::stringstream ss;
ss.precision(significantDigits);
ss << std::scientific << number;
return ss.str();
}
如果是,请列出 C++ 文档/标准中的一个部分,说明它不是平台/实现定义的。由于 0 的值也有不同的表示方式,我担心某些非常小的数字(非规范化?!)可能会以不同的方式可视化。在我的编译器平台上,它目前适用于 std::numeric_limits::min()、denorm_min()。
注意:我使用它来查找数字的数量级,而不会弄乱 float 分析的所有古怪细节。我希望标准库为我做这件事 :-)
最佳答案
Can I rely on the following code always producing the normalized outcome?
没有任何保证,不。更好的说法是:标准并没有像您希望的那样强加保证。
std::scientific
仅在以下相关部分被引用:
ios_base& scientific(ios_base& str);
Effects: Calls
str.setf(ios_base::scientific, ios_base::floatfield)
.
Returns:str
.
| Element | Effect(s) if set |
| ... | ... |
| scientific | generates floating-point output in scientific notation |
| ... | ... |
关于c++ - std::scientific 是否总是导致 float 的规范化科学计数法?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/50583676/
我正在运行 yum install gcc-arm-linux-gnueabi 在我的机器上,但它说: No package gcc-arm-linux-gnueabi available. 请帮我在
在为特定学科的科学家设计软件库时,有哪些好的原则?我的意思是化学、物理、 Material 科学、显微镜、生物测定、天文学等领域。我不包括 SciPy、R、Matlab、JAMA 等涵盖一系列学科或专
是否有任何通用物理引擎可以对刚体进行大规模模拟?我正在使用 Nvidia 的 PhysX,但该引擎的重点是游戏开发、软体。我想知道是否存在运行在 PS3 单元处理器或 CUDA 内核之上的物理引擎,允
首先: 我很清楚OpenCL不能神奇地使一切变得更快 我很清楚OpenCL有限制 所以现在我的问题是,我习惯于使用编程来进行不同的科学计算。关于计算的复杂性和数量,我从事的一些工作非常紧张。所以我想知
我在美国一所大学的一个小型独立科学实验室工作,我注意到,与业内许多表面上遵循的做法相比,例如每天检查版本控制系统,使用对于所有语言(如 emacs)等的单个 IDE/编辑器,我们遵循相当粗劣的编程实践
由于不明原因(我需要匹配古代 Fortran 代码中使用的某些格式),我需要使用 VBA(到文本文件)从 Excel 输出一些非标准科学记数法的数字。 例如如果 x = 6000000 普通VBA:
除了产生不正确的结果外,科学编程中最担心的问题之一就是无法复制您生成的结果。哪些最佳实践可帮助确保您的分析可重复? 最佳答案 我是研究地球物理学家团队中的一名软件工程师,我们目前(一如既往)致力于提高
我正在将大量小数据集写入 HDF5 文件,生成的文件大小大约是我对输入的数据的原始列表所期望的 10 倍。我的数据按层次结构组织如下: group 0 -> subgroup 0
是否有机会在 Spyders 变量资源管理器中将这些转换为非科学记数法?谢谢! 最佳答案 点击格式并将 float 格式设置为 %.15g 对我有用。 关于Spyder 变量资源管理器 : Disab
我正在尝试使用 GSL 进行最小二乘拟合,但我什至无法生成 example正常运行。可以编译,但是运行程序时会报错 dyld: lazy symbol binding failed: Symbol n
Scientific Linux 上的 Java 安装程序显示了两个不同的版本。 我正在尝试在 Scientific Linux 上正确设置 java。 如果我执行 javac -version 我会
我有一个 h:inputText 控件,我可以在其中输入最多 7 位数字,并将它们转换为十进制表示形式(即输入“9999999”,它将呈现“9999999.0”)。但是,当我输入任何 7 位或更多数字
科学记数法定义了数字应该如何使用符号、数字和指数来显示,但它没有声明可视化是标准化的。 一个例子:-2.34e-2(归一化科学计数法)与-0.234e-1(科学计数法)相同 我能否依赖以下代码始终生成
我需要从 n+1 个数据点得到一个 n 次函数。通过使用以下 gnuplot 脚本,我得到了正确的拟合: f(x) = a + b*x + c*x**2 + d*x**3 + e*x**4 + f*x
这是一个 MWE: #include int main() { std::cout.precision(17); std::cout << 1.2345678901234567890
我正在尝试在 numpy 中使用 genfromtxt 导入一个包含文本和数字的大型 .csv 文件。我只对两列感兴趣。我已经整理了大部分导入: def importfile(root): d
我想以科学记数法将数字写入 Excel。在 Apache Poi 中,可以像这样设置单元格的数字格式: Cell cell = ... CellStyle style = workbook.creat
我正在使用 Scientific Linux 6.1。要运行程序 (DS9),我需要设置此环境变量: export XPA_METHOD=local 所以我把它保存在 .bashrc 中,当我从 ba
我看到所有的例子都说要使用 fixed、precision 等,但所有这些都是人们想要打印值的时候。 我想做的是将我的 double 值从数字转换为字符串,我不需要科学记数法。 我的数字示例:6.61
我刚刚使用 conda create --name py35 python=3.5 anaconda 将 python 3.5 添加到 anaconda 的环境中 我把anaconda的bin、env
我是一名优秀的程序员,十分优秀!