TSM模型测试——测试视频

这个玩意TSM从训练开始看,我特么看了近两周了,本来想用官方模型测试一下看看效果得了,结果一看,卧槽没法直接测试视频,官方给的测试还是测试集的测试,还需要用DataLoader,卧槽,一点都不方便,不好用,这也可能是官方引起关注的一个技巧吧,不然大多伸手党直接走了,连个issue都没有,谁还保持关注???

请看我的issue,尽管已经回复了一个参考,但我能说这个脚本很垃圾吗??

同样是先ffmpeg分割视频,然后再读图,真是够笨的,能不能直接cv2读图进行预测结果啊,不就连续帧吗??还需要什么??

我就郁闷了,东拼西凑的东西有什么高大上的吗??

再说训练,这个模型的input_shape到现在我都没看到,或者说没有找到,到底是多少?能不能给个明确的?拐弯抹角,解释都没有,一副高高在上的大佬样子。【老子在另一项目问题,还有老外让老子关了issue,我关尼玛,既不是你的project,又不是贡献者,你算个屁,操不完的闲心,mind your own business】

我只了解到的是ffmpeg在分割时固定了高度256,宽度成比例。至于让我参考的test_video中怎么出现了224我是一脸懵逼,可见参考也仅仅是用来参考,不可全信。我还是自己手写算了,百变大魔王探花小明哥GBM这点能力都没有吗?不可能,绝对不可能。

cv2读图走起来,今天搞定,搞不定不下班。

【以上表态不代表个人立场,不表示我本人认同或支持,哈哈哈】

过程见这篇https://blog.csdn.net/SPESEG/article/details/103717591

如何查看torch模型的input_shape ?老子也是服了,搜了半天,结果还要另外写input_shape ,然后才能获取每一层的输入和输出shape,这真的很差劲,老子用查看模型的工具也不能确定input_shape,因为给出来的是参数的shape【如下】,卧槽

真是人生艰难啊。提issue

终于将官方给的测试跑通了,但有什么用呢?人家测试的是批量数据,而且是图片,我只想测试个视频,这都难搞,可见大多数还是停留在照搬照抄的阶段,并没有去改写代码,只有能改代码才是真正看懂代码了。

我试了下似乎输入什么样的input_shape 都可以,这也太不严谨了。。。。。。。。。。。。

请来看看我吧。Please Do not Keep me Waiting.

另外有相关问题可以加入QQ群讨论,不设微信群

QQ群:868373192 

语音图像深度-学习群

或者发我邮箱:

[email protected]

发布了189 篇原创文章 · 获赞 170 · 访问量 2万+

猜你喜欢

转载自blog.csdn.net/SPESEG/article/details/103715983
TSM