- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我目前正在尝试创建一个 C 源代码,无论目标系统的字节顺序如何,它都能正确处理 I/O。
我选择了“小端”作为我的 I/O 约定,这意味着,对于大端 CPU,我需要在写入或读取时转换数据。
转换不是问题。我面临的问题是检测字节顺序,最好是在编译时(因为 CPU 不会在执行过程中更改字节顺序...)。
到目前为止,我一直在使用这个:
#if __BYTE_ORDER__ == __ORDER_LITTLE_ENDIAN__
...
#else
...
#endif
它被记录为 GCC 预定义的宏,Visual 似乎也能理解它。
但是,我收到了一些 big_endian 系统 (PowerPC) 检查失败的报告。
因此,我正在寻找一种万无一失的解决方案,无论编译器和目标系统是什么,它都能确保正确检测字节顺序。好吧,他们中的大多数人至少......
[编辑]:提出的大多数解决方案都依赖于“运行时测试”。这些测试有时可能会在编译期间由编译器正确评估,因此不会消耗真正的运行时性能。
但是,使用某种 <<if (0) { ... } else { ... }
>> 进行分支是不够的。在目前的代码实现中,变量和函数的声明依赖于big_endian检测。这些不能用 if 语句更改。
嗯,很明显,有回退计划,就是重写代码...
我宁愿避免这种情况,但是,好吧,这看起来希望渺茫......
[编辑 2]:我通过深度修改代码测试了“运行时测试”。尽管他们正确地完成了工作,但这些测试也会影响性能。
我原以为,由于测试具有可预测的输出,编译器可以消除错误的分支。但不幸的是,它并不总是有效。 MSVC 是一个很好的编译器,并且成功地消除了错误的分支,但是 GCC 的结果好坏参半,这取决于版本、测试类型,并且对 64 位的影响比对 32 位的影响更大。
这很奇怪。这也意味着无法确保编译器处理运行时测试。
编辑 3:最近,我正在使用编译时常量 union ,期望编译器将其解决为明确的是/否信号。它工作得很好: https://godbolt.org/g/DAafKo
最佳答案
如前所述,检测 Big Endian 的唯一“真正”方法是使用运行时测试。
但是,有时可能更喜欢使用宏。
不幸的是,我没有找到一个单一的“测试”来检测这种情况,而是找到了它们的集合。
例如,GCC 推荐:__BYTE_ORDER__ == __ORDER_BIG_ENDIAN__
。然而,这只适用于最新版本,早期版本(和其他编译器)会给这个测试一个假值“真”,因为 NULL == NULL。所以你需要更完整的版本:defined(__BYTE_ORDER__)&&(__BYTE_ORDER__ == __ORDER_BIG_ENDIAN__)
好的,现在这适用于最新的 GCC,但其他编译器呢?
您可以尝试 __BIG_ENDIAN__
或 __BIG_ENDIAN
或 _BIG_ENDIAN
,它们通常在大端编译器上定义。
这将改进检测。但是,如果您专门针对 PowerPC 平台,则可以添加更多测试以改进更多检测。尝试 _ARCH_PPC
或 __PPC__
或 __PPC
或 PPC
或 __powerpc__
或 __powerpc
甚至 powerpc
。将所有这些定义绑定(bind)在一起,您就有相当大的机会检测大端系统,尤其是 powerpc,无论编译器及其版本如何。
因此,总而言之,不存在保证在所有平台和编译器上检测大端 CPU 的“标准预定义宏”之类的东西,但是有许多这样的预定义宏,它们共同提供在大多数情况下正确检测大端字节序的可能性很高。
关于c - 检测字节顺序,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/8978935/
美好的一天!我试图添加两个字节变量并注意到奇怪的结果。 byte valueA = 255; byte valueB = 1; byte valueC = (byte)(valueA + valueB
嗨,我是 swift 的新手,我正在尝试解码以 [Byte] 形式发回给我的字节数组?当我尝试使用 if let string = String(bytes: d, encoding: .utf8)
我正在使用 ipv4 和 ipv6 存储在 postgres 数据库中。 因为 ipv4 需要 32 位(4 字节)而 ipv6 需要 128(16 字节)位。那么为什么在 postgres 中 CI
我很好奇为什么 Go 不提供 []byte(*string) 方法。从性能的角度来看,[]byte(string) 不会复制输入参数并增加更多成本(尽管这看起来很奇怪,因为字符串是不可变的,为什么要复
我正在尝试为UDP实现Stop-and-Wait ARQ。根据停止等待约定,我在 0 和 1 之间切换 ACK。 正确的 ACK 定义为正确的序列号(0 或 1)AND消息长度。 以下片段是我的代码的
我在下面写了一些代码,目前我正在测试,所以代码中没有数据库查询。 下面的代码显示 if(filesize($filename) != 0) 总是转到 else,即使文件不是 0 字节而是 16 字节那
我使用 Apache poi 3.8 来读取 xls 文件,但出现异常: java.io.IOException: Unable to read entire header; 0 by
字典大小为 72 字节(根据 getsizeof(dict) 在字典上调用 .clear() 之后发生了什么,当新实例化的字典返回 240 字节时? 我知道一个简单的 dict 的起始大小为“8”,并
我目前正在努力创建一个函数,它接受两个 4 字节无符号整数,并返回一个 8 字节无符号长整数。我试图将我的工作基于 this research 描述的方法,但我的所有尝试都没有成功。我正在处理的具体输
看看这个简单的程序: #include using namespace std; int main() { unsigned int i=0x3f800000; float* p=(float*)(
我创建了自己的函数,将一个字符串转换为其等效的 BCD 格式的 bytes[]。然后我将此字节发送到 DataOutputStram (使用需要 byte[] 数组的写入方法)。问题出在数字字符串“8
此分配器将在具有静态内存的嵌入式系统中使用(即,没有可用的系统堆,因此“堆”将只是“char heap[4096]”) 周围似乎有很多“小型内存分配器”,但我正在寻找能够处理非常小的分配的一个。我说的
我将数据库脚本从 64 位系统传输到 32 位系统。当我执行脚本时,出现以下错误, Warning! The maximum key length is 900 bytes. The index 'U
想知道 128 字节 ext2 和 256 字节 ext3 文件系统之间的 inode 数据结构差异。 我一直在为 ext2、128 字节 inode 使用此引用:http://www.nongnu.
我试图理解使用 MD5 哈希作为 Cassandra key 在“内存/存储消耗”方面的含义: 我的内容(在 Java 中)的 MD5 哈希 = byte[] 长 16 个字节。 (16 字节来自维基
检查其他人是否也遇到类似问题。 shell脚本中的代码: ## Convert file into Unix format first. ## THIS is IMPORTANT. ###
我们有一个测量数据处理应用程序,目前所有数据都保存为 C++ float,这意味着在我们的 x86/Windows 平台上为 32 位/4 字节。 (32 位 Windows 应用程序)。 由于精度成
我读到在 Java 中 long 类型可以提升为 float 和 double ( http://www.javatpoint.com/method-overloading-in-java )。我想问
我有一个包含 n 个十进制元素的列表,其中每个元素都是两个字节长。 可以说: x = [9000 , 5000 , 2000 , 400] 这个想法是将每个元素拆分为 MSB 和 LSB 并将其存储在
我使用以下代码进行 AES-128 加密来编码一个 16 字节的 block ,但编码值的长度给出了 2 个 32 字节的 block 。我错过了什么吗? plainEnc = AES.enc
我是一名优秀的程序员,十分优秀!