注意力机制最好不要直接在原有的主干网络(backbone)中添加,以免破坏原有的预训练参数,最好是backbone之后添加。添加时,注意注意输入的channels的数量。
坚持更新,记录学习
北京宏哥阅读 303.7k评论 1
夕水赞 3阅读 3.8k
DBLens赞 5阅读 1.9k
DBLens赞 5阅读 4k
陈明勇赞 5阅读 1.8k
思否编辑部赞 2阅读 4.7k
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
@
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。