初学者尝试运行一个GitHub项目(https://github.com/david-gpu/...)
找的数据集是Large-scale CelebFaces Attributes (CelebA)Dataset(http://mmlab.ie.cuhk.edu.hk/p...),其中Align&Cropped Images的数据有20万张。
但是每次进行训练都很快结束,每次的batch只有230,280,300。
要怎么做才能把20万数据集全部训练完成。
真诚希望各位大神解疑。
初学者尝试运行一个GitHub项目(https://github.com/david-gpu/...)
找的数据集是Large-scale CelebFaces Attributes (CelebA)Dataset(http://mmlab.ie.cuhk.edu.hk/p...),其中Align&Cropped Images的数据有20万张。
但是每次进行训练都很快结束,每次的batch只有230,280,300。
要怎么做才能把20万数据集全部训练完成。
真诚希望各位大神解疑。
2 回答4.2k 阅读✓ 已解决
2 回答808 阅读✓ 已解决
1 回答4.1k 阅读✓ 已解决
2 回答2.1k 阅读✓ 已解决
3 回答785 阅读✓ 已解决
4 回答2.5k 阅读
3 回答818 阅读✓ 已解决
问题已经解决,在srez_main.py中,将源代码的
tf.app.flags.DEFINE_integer('train_time', 20,
中的20改为你要训练的时间,大概计算一下完成所需的训练时间,单位为分钟。