- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
使用 Azure (http://msdn.microsoft.com/en-us/library/dd135726.aspx) 的 base64 编码,我似乎不知道如何取回所需的字符串。我可以在 C# 中执行以下操作。
int blockId = 5000;
var blockIdBytes = BitConverter.GetBytes(blockId);
Console.WriteLine(blockIdBytes);
string blockIdBase64 = Convert.ToBase64String(blockIdBytes);
Console.WriteLine(blockIdBase64);
打印出来(在 LINQPad 中):
Byte[] (4 items)
| 136 |
| 19 |
| 0 |
| 0 |
iBMAAA==
在 Qt/C++ 中,我尝试了几个 aporaches,它们都返回了错误的值。
const int a = 5000;
QByteArray b;
for(int i = 0; i != sizeof(a); ++i) {
b.append((char)(a&(0xFF << i) >>i));
}
qDebug() << b.toBase64(); // "iIiIiA=="
qDebug() << QByteArray::number(a).toBase64(); // "NTAwMA=="
qDebug() << QString::number(a).toUtf8().toBase64(); // "NTAwMA=="
如何获得与 C# 版本相同的结果?
最佳答案
请参阅我对您的 for
循环问题的评论。它每次移动多一位,但实际上它应该是 8 位。就个人而言,我更喜欢这个而不是循环:
b.append(static_cast<char>(a >> 24));
b.append(static_cast<char>((a >> 16) & 0xff));
b.append(static_cast<char>((a >> 8) & 0xff));
b.append(static_cast<char>(a & 0xff));
以上代码适用于网络标准字节顺序(大端)。将四个操作的顺序从后到前翻转为小端字节序。
关于c# - 在 C++ 中将 int 转换为 little-endian 格式的字节以用于 Azure 中的 blobId,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/10203105/
小端与大端 大字节序 = 0x31014950 小字节序 = 0x50490131 但是使用这个方法 inline unsigned int endian_swap(unsigned int& x)
当我通过套接字将一个整数变量从一个进程发送到另一个进程,然后在接收端打印值时,不使用 ntohl/htonl,该值仍然相同,那么除了初始化之外,我还需要在哪里使用这些函数套接字结构。我了解小/大端。但
我只是想问一下我的方法从小端到大端的转换是否正确,只是为了确定我是否理解其中的区别。 我有一个数字存储在小端,这里是数字的二进制和十六进制表示: 0001 0010 0011 0100 0101 0
Big Endian 和 Little Endian 字节顺序有什么区别? 这两个似乎都与 Unicode 和 UTF16 有关。我们到底在哪里使用它? 最佳答案 Big-Endian (BE)/Li
我遇到了以下问题: int i[20] = {0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19}; int *p
char S[6] = "18243"; 以下字符串在大端系统和小端系统中如何表示? 最佳答案 char 类型保存单个字节。因此,该类型不涉及字节序。 在您的示例中,您有一个数组。数组元素一个接一个地
我正在用 Java 编写一个程序来输入一个文件,供另一个用 C++ 编写的程序使用。因此,该文件必须是 float 的小端二进制文件。 我使用了许多不同类型的方法来进行这种字节序转换,包括 Apach
我正在尝试制作一个Java程序,它接收大端字节序的二进制字符串,如下所示:“11001100111111110001010011000000”。程序应该输出相同的字符串,但转换为 Little End
关闭。这个问题需要details or clarity .它目前不接受答案。 想改进这个问题吗? 通过 editing this post 添加细节并澄清问题. 关闭 4 年前。 Improve t
我有一个定义为的结构: struct record { int age; char name[12]; int department; }; 如果我从二进制文件中读取数据并且数据包含
在我的代码中有一个结构存在填充问题。我修复了它们,我的代码在小端机器上运行良好。这种结构是否有可能导致大端机器出现问题?? 最佳答案 您需要牢记以下几点: 无论何时进行数据通信,通信协议(protoc
我目前的任务是剖析包含 P2P 消息的 tcpdump 数据,我在获取和写入 x86 机器上的文件的片段数据时遇到了问题。我怀疑我写入文件的字节有一个简单的字节顺序问题。 我有一个字节列表,其中包含一
我怎样才能将小字节序二进制文件转换成大字节序二进制文件。我有一个用 C 编写的二进制二进制文件,我正在用 Java 使用 DataInputStream 读取这个文件,它以大端格式读取。我还查看了 B
全部, 我一直在网上练习编码问题。目前我正在处理一个问题陈述 Problems,我们需要转换 Big Endian little endian。但是考虑到给出的示例,我无法记下步骤: 1234567
你好,我在小端和大端有一个小问题,我知道这个问题已经问过 n 次了,但我无法弄清楚以下几点 让 int i=10 在堆栈部分以二进制形式存储为 00000000 00000000 00000000 0
我们需要支持 3 种硬件平台 - Windows(小端)和 Linux Embedded(大端和小端)。我们的数据流取决于它使用的机器,数据需要分解成位域。 我想写一个宏(如果可能的话)来抽象掉细节。
我在询问如何判断数组中的一个元素何时完成,而另一个元素何时以字节序架构开始。 我有 2 个数组,其中 long 的大小是 8,大小为 char是 1long x[2] = {0x012345,0xFE
我正在编写解析器代码以从二进制文件中读取所有数据。顺便说一句,二进制文件是大端的。当我读取文件的二进制头时,我通过这种方法将其读入 Structure: 结构: struct BinaryHeader
我很好奇这个函数是否会决定字节顺序。 测试是一个位掩码,如果整数 someInt 存储在小端中,则该位掩码等于 1。 在位掩码中,0x1000 会被转换以匹配机器的字节序样式还是“常量”? #incl
我正在使用 MIPS (QtSpim) 将 32 位字从 Big Endian 转换为 Little Endian。我在下面显示的内容经过检查且正确无误。但是,我想知道还有哪些其他方式可以让我进行转换
我是一名优秀的程序员,十分优秀!