for i, batch in enumerate(train_loader)不能正常生成batch的解决方案

for i, batch in enumerate(train_loader)不能正常生成batch的解决方案

经过2天的调整,终于解决了这个问题,太开心了,特地记录一下,回报社会!

原因

相信很多人在看完论文都会想debug一下开源项目,但是在debug时我们只需要知道数据的形态变化和训练方法,并不关心训练效果,如果用整个数据集就费时费卡。因此很多人选择用一个小数据集debug。

以我debug的One Thiing One Click为例,预处理的数据集是scannet,处理好的文件放在train_weakly/下,每个场景文件为 ‘xxx_inst_nostuff.pth’。

于是我就从train_weakly/下选择了2个 ‘.pth’ 文件作为debug数据集,但是我没有注意到的是,选用小数据集的同时,一定要修改batch_size!而此时我的batch_size还是项目默认的4, 所以自然无法正常生成batch

于是出现了以下输出:

# check whether a batch can be generated
for id, batch in enumerate(dataset.train_data_loader):
	print(id, batch)
# >> 2222 []

当我把batch_size改成1后就能正常生成batch了!(下图)
在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/weixin_45549370/article/details/122962806