yolo自定义训练问题

大家帮我看看,为啥训练后精度不好呢?
背景:制作自定义数据集,训练螺母位置是否正确。数据集大小:train400张,val100张。训练了300多次,map50最好成绩是0.95以上
。但是实际识别的错误率很高,45张图片错了5张。
训练参数都是用的默认值,帮忙看看怎么改进,提升预测准确度。谢谢!

img

img

img

img

img

可以尝试一下增加训练图像和验证图像

该回答引用ChatGPT

如有疑问,可以回复我!

您的训练精度很高,但实际应用中的错误率很高,这可能是由于以下几个原因:

1、数据集不够大或不够丰富。您的数据集只有400张训练图片和100张验证图片,这可能不足以涵盖所有可能出现的情况,因此您可以考虑增加数据集的大小或多样性来提高模型的泛化能力。

2、训练次数不够。您已经训练了300多次,但是可能还需要更多的训练次数来提高模型的准确性。可以通过增加训练次数,继续训练模型以获得更好的性能。

3、模型参数选择不合适。您说您使用了默认的参数,但是可能不是所有默认参数都适合您的数据集和任务。您可以尝试调整学习率、批量大小、网络结构等参数,以获得更好的性能。

4、模型过度拟合。如果模型在训练集上表现很好,但在测试集上表现很差,那么可能是由于过度拟合导致的。您可以尝试增加正则化项、减少网络的复杂性等方法来减少过度拟合。

5、数据标注错误。在目标检测中,正确的标注非常重要。如果数据标注错误,模型将无法准确预测目标的位置。因此,您需要确保数据集中的标注是正确的。

综上所述,建议您尝试增加数据集大小、调整模型参数、减少过度拟合、检查数据标注等方面来提高模型的准确性。

以下答案由GPT-3.5大模型与博主波罗歌共同编写:
针对这个问题,我会从以下几个方面给出建议并提供相应的代码参考:

  1. 数据集准确性问题:即训练数据集中的标注是否准确,可能会导致模型预测不准。建议检查一下训练集和验证集中的标注是否正确,可以手动标注一些图片并检查标注框是否正确。

  2. 数据集多样性问题:数据集中是否存在足够多的不同情况,例如,不同角度、遮挡、光照条件等。可以增加数据集大小、增强数据集,同时可以通过数据增强技术增加数据集的多样性。相关的代码可以查看:https://github.com/AlexeyAB/darknet#how-to-train-to-detect-your-custom-objects

  3. 训练参数问题:训练参数能够直接影响模型的预测结果。可以尝试调整训练参数,例如:学习率、批量大小、迭代次数等,来提升模型的预测准确度。相关的代码可以查看:https://github.com/AlexeyAB/darknet#how-to-train-to-detect-your-custom-objects

  4. 模型结构问题:YOLO官方提供了几种不同的结构,不同结构的性能不同。可以尝试采用不同的模型结构来训练自定义数据集,以提升模型的预测准确度。相关的代码可以查看:https://github.com/AlexeyAB/darknet#how-to-train-to-detect-your-custom-objects

  5. 损失函数问题:YOLO官方提供了几种不同的损失函数,不同的损失函数会对模型的优化效果产生影响。可以尝试采用不同的损失函数,以提升模型的预测准确度。相关的代码可以查看:https://github.com/AlexeyAB/darknet#how-to-train-to-detect-your-custom-objects

  6. 超参数调整问题:一些超参数比如IOU阈值、NMS阈值、score阈值等等对于检测任务都有比较大的影响,可以在训练过程中进行调整并观察效果。相关的代码可以查看:https://github.com/AlexeyAB/darknet#how-to-train-to-detect-your-custom-objects

参考代码:

增加数据集多样性

在darknet的训练过程中可以加上数据增强的选项,使得模型可以训练出更加鲁棒的特征。同时还可以通过增加训练样本的方式来提高模型在更多情况下的准确度。

augment = 1
angle = 0
saturation = 1.5
exposure = 1.5
hue = .1

if augment:
    saturation = random.uniform(.8, 1.2)
    exposure = random.uniform(.8, 1.2)
    hue = random.uniform(-hue, hue)
    angle = random.randint(-angle, angle)

return ' %f %d %d %f %f %f' % (hue, saturation, exposure, left, right, top, bottom, angle)

增加标注准确性

人工标注样本时存在一些错误的情况,可以通过检查标签文件并手动更正来提高其准确性。

with open(labelfile) as lf:
    lines = lf.readlines()
    objs = [x.strip() for x in lines]
    for obj in objs:
        cls_id, x, y, w, h = obj.split()
        left = float(x) - float(w) / 2
        right = float(x) + float(w) / 2
        top = float(y) - float(h) / 2
        bottom = float(y) + float(h) / 2

        left, top = max(0, left), max(0, top)
        right, bottom = min(1.0, right), min(1.0, bottom)

        if right - left < 0 or bottom - top < 0 or left > right or top > bottom:
            continue

        x_, y_, w_, h_ = (left + right) / 2, (top + bottom) / 2, (right - left), (bottom - top)
        f.write('{} {} {} {} {}\n'.format(cls_id, x_, y_, w_, h_))

调整模型超参数

通过手工修改配置文件进行超参数的调整,可以达到更好的学习效果和精度提高。

[net]
height=416
width=416
channels=3
batch=64
subdivisions=2
max_batches = 8000
steps=6400, 7200
learning_rate=0.001
momentum = .9
decay=.0005
scales=.1,.1

[convolutional]
batch_normalize=1
filters=32
size=3
stride=1
pad=1
activation=leaky

[convolutional]
batch_normalize=1
filters=64
size=3
stride=2
pad=1
activation=leaky

[yolo]
mask = 0,1,2
classes=1
num=9
jitter=.3
ignore_thresh = .7
truth_thresh = 1
random=1

如果我的回答解决了您的问题,请采纳!

参考GPT和自己的思路:首先,针对您提供的情况,可能会存在以下原因导致训练后精度不好:

1 数据集不够大,因为您只有400张训练数据和100张验证数据。数据量较小可能会导致模型过拟合,即在训练数据上表现良好,但在新的数据上表现较差。

2 训练次数过少,因为您只训练了300多次,这可能不足以使模型收敛到最优状态。

3 训练参数设置不够合理,因为您说使用的是默认值。每个模型的训练参数都有不同的适用范围和最佳值,因此,适当调整参数可能会对模型的性能产生显著影响。

基于上述原因,以下是一些可能有用的建议:

1 增加数据集大小,以增加模型的泛化能力。您可以考虑通过数据增强技术,如翻转、旋转、缩放、裁剪等,生成更多的训练数据。

2 增加训练次数,直到模型收敛到最优状态。您可以通过查看训练损失曲线来确定是否需要增加训练次数。

3 调整训练参数,以优化模型的性能。例如,您可以尝试调整学习率、批量大小、优化器类型、正则化系数等。

4 检查数据集的质量,确保数据集中的标签正确。如果数据集中的标签不正确,则模型将无法学习到正确的特征。

5 可以考虑使用更深层的网络结构,如YOLOv4、YOLOv5等。这些更深层的模型可能具有更好的性能,并且能够更好地适应自定义数据集。

希望以上建议能对您有所帮助。

你这情况一眼就是过拟合。
建议增强一下数据集,我猜测实际应用测试错误率高的原因一般有下面这几点:

  1. 尺度不匹配,实际拍摄的图片占比和训练数据差距大
  2. 角度问题,包括相机角度和工件旋转等等
  3. 光线问题,实际拍摄图片和训练数据光暗差距较大
  • 针对这些问题,可以进行数据增强。
    其中包括对图片进行:裁剪、旋转、模糊、亮度和对比度调整