我在尝试将两个网络连起来用,现在确认单独使用其中一个,屏蔽另一个是能够反向传播,即正常运行,但是两个一起用就报错
loss.backward()这一行报错
RuntimeError: _cdist_backward requires X1 to be contiguous
搜遍了网络找不到原因,请教各位是否有过了解。我是在pytorch框架下运行的python, 使用的loss函数是MSELoss()

这个报错指你的tensor经过拼接或者维度变换之后没有加上.contiguous(),导致内存不连续,你可以在有view(),或者transpose() 之类的地方后面加上.contiguous()看看行不行
两个接在一起梯度消失或者爆炸了吧,网络太深了,何况为啥你要接一块一起训练啊,你可以单独训练把结果接一块啊。分开训练损失函数。