pytorch embedding相关问题

embed读取时,参数只能是LongTensor型的,但是我想输入的自己训练的词向量矩阵是浮点类型的[0.111,0.0111,0.333]这种小数类型的,如果将其转化为long型的就成了[0,0,0]了,改变了原有的词权重,不是我想要输入的矩阵了,有什么办法可以解决呢?

你好,我是有问必答小助手,非常抱歉,本次您提出的有问必答问题,技术专家团超时未为您做出解答

本次提问扣除的有问必答次数,将会以问答VIP体验卡(1次有问必答机会、商城购买实体图书享受95折优惠)的形式为您补发到账户。

​​​​因为有问必答VIP体验卡有效期仅有1天,您在需要使用的时候【私信】联系我,我会为您补发。