深度学习是不是很少用到K-折交叉检验来调参?

最近在学深度学习,看完了吴恩达一系列视频,用keras(tensorflow)搭了个简单的模型,包装成KerasClassifier之后用scikit-learn的GrdiSearchCV来调参,调的参数有层数、节点数和Dropout率。

我在网上搜索Fine-tunning、调参等关键词,都没有发现特别系统的调参说明,大家好像都是在经典的模型上改下输出层(或者让高层的权重微调一下),并不会更改层数、节点数等。那么现在大家调参调的是什么方面呢?

还有就是调参的时候,有必要用K-折交叉验证吗?大家现在都用什么包或者工具来调参?

希望大佬们能不吝赐教,谢谢!

阅读 2.4k
撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进
推荐问题