gpt4 book ai didi

binary - 为什么教科书中使用的二进制 14 位浮点模型使用偏置 16 而 IEEE 单精度使用偏置 127?

转载 作者:行者123 更新时间:2023-12-02 08:22:30 34 4
gpt4 key购买 nike

在我的计算机体系结构类(class)中,我们使用 14 位二进制模型;(1 位用于符号,5 位用于指数,8 位用于尾数)。输入指数时,我的讲师让我们加 16 来抵消它。(偏差 16)为什么我们使用 16 偏差?是因为5位最多只能表示31个数吗?如果是这样,请详细说明并与使用指数时使用 127 偏差的 IEEE 单精度进行比较。最后,如果有人能给我一个在这种情况下使用的偏见的明确定义,我将不胜感激。如果我说的不清楚,请发表评论。

最佳答案

IEEE 754 二进制 float 格式遵循指数偏差的简单模式。当指数有 p 位时,偏差为 2^{p-1}-1 .这样,指数具有相等数量的正指数和负指数。

对于单精度 float ,p 为 8,因此偏差为 127。对于您的格式,p 为 5,偏差为 15。也许您的讲师将偏差更改为16 因为格式不支持denorm、infinity 和NaN。

关于binary - 为什么教科书中使用的二进制 14 位浮点模型使用偏置 16 而 IEEE 单精度使用偏置 127?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35687911/

34 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com