您好,登录后才能下订单哦!
本篇内容介绍了“SSD-pytorch坑怎么解决”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!
我在运行
python train.py
的时候,发现确实loss降的异常的快。
运行
python eval.py
的时候mAP是一个很接近0的数。
经过思考,发现问题出在原来博客的第4个点:
(下面这段是从原文中复制来的)
4.train.py代码中,在迭代过程中,每次执行batch张图片,通过images, targets = next(batch_iterator)读取图片时,如果next()中没有数据后会触发Stoplteration异常,使用下面语句替换 images, targets = next(batch_iterator)将解决这种异常问题。 while True: try: # 获得下一个值: images, targets = next(batch_iterator) except StopIteration: # 遇到StopIteration就退出循环 break
但是其实是不能够这样改的,这么改的思路是遇到了问题就跳过去,这样很明显是不可以的,会导致不断的跳出循环,没有在进行有效的train,所以loss会降得很快,最后的结果也不好。
这个问题出现的原因是dataloader导入数据之后经过了一轮的迭代,再次导入的时候发现没有数据了,也就是iterable完成之后,触发了StopIteration,然后跳出了循环。
既然再次导入的时候没有数据了,那我们就再用一个dataloader就行了。
将train.py(165行)的
images, targets = next(batch_iterator)
更改成:
try: images, targets = next(batch_iterator) except StopIteration: batch_iterator = iter(data_loader) images, targets = next(batch_iterator)
问题解决。
“SSD-pytorch坑怎么解决”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注亿速云网站,小编将为大家输出更多高质量的实用文章!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。