C#设计的计算器,进制转换的累积误差怎么办

我现在做一个计算器,从十进制转化为二进制,因为带小数,就会有误差,再将得出来的有误差的数转化为8进制,以此类推,最后是十六进制,最后再转化为10进制,那么这个误差该怎么减小呢

把小数转换为整数处理,得出结果后再处理小数点的问题。

设计小数点部分,都是精度丢失问题,这个是所有编程语言存在的问题,可以参考一下https://www.cnblogs.com/shanfeng1000/p/12398446.html

您好,我是有问必答小助手,您的问题已经有小伙伴解答了,您看下是否解决,可以追评进行沟通哦~

如果有您比较满意的答案 / 帮您提供解决思路的答案,可以点击【采纳】按钮,给回答的小伙伴一些鼓励哦~~

ps:问答VIP仅需29元,即可享受5次/月 有问必答服务,了解详情>>>https://vip.csdn.net/askvip?utm_source=1146287632