如何把神经网络的每次预测结果自动添加回训练数据集

如何将每运行一次的神经网络预测出的结果数据添加回原来训练数据集,能比较方便的自动添加新数据迭代,不要手动的。

将每次神经网络预测出的结果数据添加回原来的训练数据集:

定义一个新的数据集,将原始训练数据集和神经网络预测出的结果数据集合并在一起。

使用这个新的数据集重新训练神经网络。

重复以上步骤,直到预测结果满足要求为止。

这种方法可以自动添加新数据,因为每次预测结果都会被添加到数据集中并重新训练神经网络。这样,神经网络的预测能力会随着时间的推移而不断提高。

不知道你这个问题是否已经解决, 如果还没有解决的话:
  • 你可以参考下这个问题的回答, 看看是否对你有帮助, 链接: https://ask.csdn.net/questions/7638905
  • 这篇博客你也可以参考下:论文阅读笔记:为什么深度神经网络的训练无论多少次迭代永远有效?可能类内分布已经坍缩为一个点,模型已经崩溃为线性分类器
  • 除此之外, 这篇博客: 基于机器学习的归一化操作来加快深度神经网络的训练速度中的 归一化为什么能加快深度神经网络的训练速度 部分也许能够解决你的问题, 你可以仔细阅读以下内容或者直接跳转源博客中阅读:

    首先我们需要知道的是神经网络的训练速度是由梯度下降算法的速度决定的,只要梯度下降的速度变快,那么神经网络的训练速度也会相应的变快。所以为了解释这个问题,我们从损失函数梯度下降的角度来分析这个问题。

    假如我们的样本只有两个特征x1、x2,这两个特征尺度相差很大,假设特征X1区间是[0,2000],而X2区间是[1,5],我们不对其进行归一化处理,我们针对这两个特征设计机器学习算法,然后我们画出它的损失函数的图像,如下图所示

    在这里插入图片描述

    红色的圈代表的是两个特征的等高线。因为两个特征X1和X2的区间相差非常大,其所形成的等高线为长椭圆形,非常尖。使用梯度下降法寻求最优解的过程也就是在寻找使得损失函数值最小的 参数θ1,θ2,当数据没有归一化的时候,梯度下降很有可能走之字型路线(它会垂直等高线走,因为梯度的方向与等高线切线方向垂直),因为梯度下降路线波动很大,从而导致需要迭代很多次才能收敛,这就是非归一化操作的神经网络训练速度慢的直观体现。

    现在我们对训练集数据进行归一化处理,此时我们画出损失函数的图像,如下所示

    在这里插入图片描述

    而数据归一化后,损失函数变量θ前面的系数差距已不大,这样的话,图像的等高面近似圆形,此时求解得到的梯度方向更能直指圆心,在梯度下降进行求解时能较快的收敛,效率也就更高了,这样神经网络的训练速度也会相应加快。

    这就是数据归一化操作加快神经网络训练速度的直观体现,因此如果机器学习模型使用梯度下降法求最优解时,归一化往往非常有必要,否则收敛速度会很慢,甚至不能收敛。

  • 您还可以看一下 马克老师的人工智能深度学习卷积神经网络入门课程中的 什么是导数和切线?以及他们的关系小节, 巩固相关知识点

如果你已经解决了该问题, 非常希望你能够分享一下解决方案, 写成博客, 将相关链接放在评论区, 以帮助更多的人 ^-^