刚开始接触机器学习中的神经网络这一块,尤其是时间序列预测这一块。在我的理解中,神经网络里的输入输出就是x和y的关系,通过各个神经元之间的权重等参数、激活函数的处理,本质上是不是可以理解为就是x和y的回归关系,只是关系式比较复杂而且是隐式的,因为训练结束后参数就固定了,一定存在一个固定的关系来描述x和y?
那如果这样的话RNN和LSTM等模型具有记忆功能也只是在训练过程中会构建和过去多阶历史值相关的关系,训练结束后这个关系也固定了,它和一般神经网络的区别体现在哪里呢,是不是也可以理解成就是复杂的回归关系?
求解答!