注意力机制最好不要直接在原有的主干网络(backbone)中添加,以免破坏原有的预训练参数,最好是backbone之后添加。
添加时,注意注意输入的channels的数量。


Marilyn_Manson
1 声望0 粉丝

坚持更新,记录学习