初学者尝试运行一个GitHub项目(https://github.com/david-gpu/...)
找的数据集是Large-scale CelebFaces Attributes (CelebA)Dataset(http://mmlab.ie.cuhk.edu.hk/p...),其中Align&Cropped Images的数据有20万张。
但是每次进行训练都很快结束,每次的batch只有230,280,300。
要怎么做才能把20万数据集全部训练完成。
真诚希望各位大神解疑。
初学者尝试运行一个GitHub项目(https://github.com/david-gpu/...)
找的数据集是Large-scale CelebFaces Attributes (CelebA)Dataset(http://mmlab.ie.cuhk.edu.hk/p...),其中Align&Cropped Images的数据有20万张。
但是每次进行训练都很快结束,每次的batch只有230,280,300。
要怎么做才能把20万数据集全部训练完成。
真诚希望各位大神解疑。
4 回答4.4k 阅读✓ 已解决
4 回答3.8k 阅读✓ 已解决
3 回答2.1k 阅读✓ 已解决
1 回答4.5k 阅读✓ 已解决
1 回答3.8k 阅读✓ 已解决
1 回答2.8k 阅读✓ 已解决
2 回答1.9k 阅读✓ 已解决
问题已经解决,在srez_main.py中,将源代码的
tf.app.flags.DEFINE_integer('train_time', 20,
中的20改为你要训练的时间,大概计算一下完成所需的训练时间,单位为分钟。