论文链接: /pdf/.03836v2.pdf
入选ECCV
通过拼图打乱生成器把原图像按照指定patch size打乱,然后分阶段进行训练,在bachbone的每一个layer后都进行输出,训练过程进行四个阶段,分别对应不同size的patches,每个阶段都更新一次参数,而不是每个batch只更新一次参数,这样大大加快了收敛速度。
跟之前的dcl一样采用了图片shuffle的思路,不过比那个更进一步,采用了多尺度shuffle,也包含了progressive的思想。
训练过程中backbone参数的学习率设置比较小,而新增加的层学习率较大,猜测有利于保存backbone里面本来就存储的信息。
感觉这个方法的思路很直接了当,没有很多花哨的tricks,加上后会不会更好,有待探索。