gpt4 book ai didi

c++ - 确定存储用户输入差异所需的最小字段大小的有效方法

转载 作者:太空狗 更新时间:2023-10-29 22:52:31 24 4
gpt4 key购买 nike

抱歉这个笨拙的标题;我找不到任何方式来表达我想做的事情。

我从用户那里得到了多个 32 位整数的输入。例如,用户可以输入以下值(为便于解释,以十六进制显示):

0x00001234
0x00005678
0x0000abcd

在这种特殊情况下,每个输入的前 2 个字节是常量,最后 2 个字节是可变的。为了提高效率,我可以将 0x0000 存储为单个常量,并创建一个 uint16_t 值的 vector 来存储输入的可变部分(0x1234, 0x5678, 0xabcd).

现在假设用户输入以下内容:

0x00000234
0x56780000
0x00001000

在这种情况下,我需要一个 uint32_t 值的 vector 来存储输入的可变部分,因为每个值影响不同的字节。


我目前的想法是做以下事情:

uint32_t myVal = 0;
myVal |= input1;
myVal |= input2;
// ...

然后在最后找到 myVal 中第一个和最后一个“切换”(即 1)位之间的距离。该距离将为我提供所有输入的可变部分所需的字段大小。

但是,这听起来不太适合大量用户输入。关于确定这一点的优雅有效方法的任何建议?


更新:

我在上面的解释中简化了问题。

需要说明的是,我这样做并不是为了节省内存(我有更好的事情要做,而不是尝试节省几个字节,这不是为了优化目的)。

总而言之,组件 A 为我的系统中的组件 B 提供了值。有时这些值是 128 位的,但组件 B 只支持 32 位值。

如果128位值的可变部分可以用32位值表示,我可以接受。否则我将需要以错误的方式拒绝它。

我无法修改组件 B 以允许 128 位值,也无法修改组件 A 以防止其使用 128 位值(此处也存在硬件限制)。

最佳答案

虽然我看不出这一切的原因...为什么不将输入与 std::numeric_limits<uint16_t>::max() 进行比较? ?如果输入给出更大的值,那么您需要使用 uint32_t .


回复您的编辑:

我想为了获得更好的性能,您应该使用特定于硬件的低级指令。您可以迭代输入 128 位值的 32 位部分,然后将每个部分添加到 some 变量并检查下一个值与当前总和之间的差异。如果差值不等于和,那么你应该跳过这个 128 位值,否则你最终会得到必要的结果。示例如下:

uint32_t get_value( uint32_t v1, uint32_t v2, uint32_t v3, uint32_t v4)
{
uint32_t temp = v1;
if ( temp - v2 != temp ) throw exception;
temp += v2; if ( temp - v3 != temp ) throw exception;
temp += v3; if ( temp - v4 != temp ) throw exception;
temp = v4;
return temp;
}

在这个 C++ 示例中,它可能看起来很傻,但我相信汇编代码应该有效地处理输入流。

关于c++ - 确定存储用户输入差异所需的最小字段大小的有效方法,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/4141452/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com