gpt4 book ai didi

c - 将2个字节转换为带符号的16位整数的正确方法是什么?

转载 作者:行者123 更新时间:2023-12-03 07:28:22 24 4
gpt4 key购买 nike

this answer中,zwol提出了以下要求:

The correct way to convert two bytes of data from an external source into a 16-bit signed integer is with helper functions like this:



#include <stdint.h>

int16_t be16_to_cpu_signed(const uint8_t data[static 2]) {
uint32_t val = (((uint32_t)data[0]) << 8) |
(((uint32_t)data[1]) << 0);
return ((int32_t) val) - 0x10000u;
}

int16_t le16_to_cpu_signed(const uint8_t data[static 2]) {
uint32_t val = (((uint32_t)data[0]) << 0) |
(((uint32_t)data[1]) << 8);
return ((int32_t) val) - 0x10000u;
}

上面的哪个函数合适,取决于数组是包含小端还是大端表示。字节序不是这里要讨论的问题,我想知道为什么zwol从转换为 0x10000uuint32_t值中减去 int32_t

为什么这是正确的方法?

在转换为返回类型时,如何避免实现定义的行为?

既然可以假设2的补码表示形式,那么这种更简单的转换将如何失败: return (uint16_t)val;
这个天真的解决方案有什么问题:
int16_t le16_to_cpu_signed(const uint8_t data[static 2]) {
return (uint16_t)data[0] | ((uint16_t)data[1] << 8);
}

最佳答案

如果int是16位,那么如果return语句中的表达式的值超出int16_t的范围,则您的版本将依赖于实现定义的行为。

但是第一个版本也有类似的问题。例如,如果int32_tint的typedef,并且输入字节均为0xFF,则return语句中的减法结果为UINT_MAX,当转换为int16_t时,会导致实现定义的行为。

恕我直言,您链接到的答案有几个主要问题。

关于c - 将2个字节转换为带符号的16位整数的正确方法是什么?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/60864450/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com