解决TensorFlow训练模型及保存数量限制的问题
2021-03-05 04:06
686 查看
每次卷积神经网络训练的结果都只保存了最后一部分,查阅了一下相关资料,发现是定义saver时采用的默认值,这里进行如下设置:
saver = tf.train.Saver( max_to_keep = 100 , keep_checkpoint_every_n_hours = 1 )
补充:解决TensorFlow只能保存5个模型的问题
直奔主题
在训练模型的代码中找到这句代码:tf.train.Saver(),
改成:
tf.train.Saver(max_to_keep = m) # m为你想保存的模型数量
扩展
Saver类中的可选参数
tf.train.Saver(max_to_keep = m, keep_checkpoint_every_n_hours = n)
max_to_keep
保存离当前训练最近的模型数量,默认值为5。如果想全部保存,并且电脑内存够用,设成多大都可以。
keep_checkpoint_every_n_hours
每隔n个小时保存一次模型,默认值为10,000(一般情况下应该不会训练这么长时间,所以相当于是不会按照时间来保存,按照设置的epoch保存节点数来保存)。
以上为个人经验,希望能给大家一个参考如有错误或未考虑完全的地方,望不吝赐教。
您可能感兴趣的文章:相关文章推荐
- 解决tensorflow模型参数保存和加载的问题
- Cassandra 数据模型 (基于CQL,解决胖列数量限制及灵活性问题)(1.1及以上版本)
- Tensorflow训练完模型model使用 Redis并发加载 造成内存泄露问题,详细讲解如何查找问题以及解决方法
- TensorFlow1.5训练模型的保存与加载
- Tensorflow 训练模型数据freeze固话保存在Graph中
- TensorFlow 深度学习框架(7)-- 变量管理及训练模型的保存与加载
- 解决CB中TOpenDialog, TOpenPictureDialog打开文件数量有限制的问题
- 有关Caffe训练好的模型在Python接口下使用分类不准确的问题解决
- tensorflow模型运行遇到的问题以及解决办法:NotFoundError: Key Variable_10 not found in checkpoint
- GO笔记:解决爬虫限制http并发数量的问题
- 解决TensorFlow训练内存不断增长,进程被杀死问题
- tensorflow笔记-简单模型训练,保存与提取
- TensorFlow 深度学习框架(7)-- 变量管理及训练模型的保存与加载
- TensorFlow自实现线性回归训练(模板)-带模型保存与加载以及tensorborad的使用的
- tensorflow保存模型和调用训练模型
- TensorFlow 深度学习框架(7)-- 变量管理及训练模型的保存与加载
- tensorflow笔记:模型的保存与训练过程可视化
- tensorflow笔记:模型的保存与训练过程可视化
- tensorflow-gpu 和cpu使用训练ssd模型感想(显卡内存不足解决办法)
- 如何保存训练好的神经网络直接进行测试-TensorFlow模型持久化