caffe学习笔记10-solver.prototxt学习
2017-03-05 12:32
477 查看
solver.prototxt:
net: "models/bvlc_reference_caffenet/train_val.prototxt" # 指定的需要训练的网络模型
test_iter: 1000 # 在测试的时候,需要迭代的次数,即test_iter* batchsize(测试集的)=测试集的大小,测试集的 batchsize可以在prototx文件里设置
test_interval: 1000 # 训练的时候,每迭代test_interval次就进行一次测试。
base_lr: 0.01 # 开始的学习率,α = 0.01=1e-2
lr_policy: "step" # 学习策略: 每 stepsize 次迭代之后,将 α 乘以 gamma
gamma: 0.1 # 学习速率变化因子
stepsize: 100000 # 每100000次迭代,就降低一次学习速率
display: 20 # 每迭代20次,显示一次
max_iter: 450000 # 训练的最大迭代次数450000
momentum: 0.9 # 动量 momentum 为:μ = 0.9,μ 使 weight 的更新更为平缓,使SGD学习过程更为稳定、快速。更容易跳出局部最优,加速收敛。
weight_decay: 0.0005 # 权值衰减项,可看作正则化的系数,增大它的值可以减少过拟合,使在损失值相同的情况下,学习算法更倾向于选择权值和更小的网络.sgd时候的参数
snapshot: 10000 # 每迭代snapshot次,保存一次快照(参数数据)
snapshot_prefix: "models/bvlc_reference_caffenet/caffenet_train" #设置快照存储路径
solver_mode: GPU # 使用的模式是GPU
# 动量为:μ
# Vt+1 = μVt − α∇L(Wt)
# Wt+1 = Wt + Vt+1
# lr_policy可选择的策略:
"fixed"
"inv"
"step"
"multistep"
"stepearly"
"poly"
# The learning rate decay policy. The currently implemented learning rate policies are as follows:
# - fixed: always return base_lr.
# - step: return base_lr * gamma ^ (floor(iter / step))
# - exp: return base_lr * gamma ^ iter
# - inv: return base_lr * (1 + gamma * iter) ^ (- power)
# - multistep: similar to step but it allows non uniform steps defined by
# stepvalue
# - poly: the effective learning rate follows a polynomial decay, to be
# zero by the max_iter. return base_lr (1 - iter/max_iter) ^ (power)
# - sigmoid: the effective learning rate follows a sigmod decay
# return base_lr ( 1/(1 + exp(-gamma * (iter - stepsize))))
#
# where base_lr, max_iter, gamma, step, stepvalue and power are defined
# in the solver parameter protocol buffer, and iter is the current iteration.
net: "models/bvlc_reference_caffenet/train_val.prototxt" # 指定的需要训练的网络模型
test_iter: 1000 # 在测试的时候,需要迭代的次数,即test_iter* batchsize(测试集的)=测试集的大小,测试集的 batchsize可以在prototx文件里设置
test_interval: 1000 # 训练的时候,每迭代test_interval次就进行一次测试。
base_lr: 0.01 # 开始的学习率,α = 0.01=1e-2
lr_policy: "step" # 学习策略: 每 stepsize 次迭代之后,将 α 乘以 gamma
gamma: 0.1 # 学习速率变化因子
stepsize: 100000 # 每100000次迭代,就降低一次学习速率
display: 20 # 每迭代20次,显示一次
max_iter: 450000 # 训练的最大迭代次数450000
momentum: 0.9 # 动量 momentum 为:μ = 0.9,μ 使 weight 的更新更为平缓,使SGD学习过程更为稳定、快速。更容易跳出局部最优,加速收敛。
weight_decay: 0.0005 # 权值衰减项,可看作正则化的系数,增大它的值可以减少过拟合,使在损失值相同的情况下,学习算法更倾向于选择权值和更小的网络.sgd时候的参数
snapshot: 10000 # 每迭代snapshot次,保存一次快照(参数数据)
snapshot_prefix: "models/bvlc_reference_caffenet/caffenet_train" #设置快照存储路径
solver_mode: GPU # 使用的模式是GPU
# 动量为:μ
# Vt+1 = μVt − α∇L(Wt)
# Wt+1 = Wt + Vt+1
# lr_policy可选择的策略:
"fixed"
"inv"
"step"
"multistep"
"stepearly"
"poly"
# The learning rate decay policy. The currently implemented learning rate policies are as follows:
# - fixed: always return base_lr.
# - step: return base_lr * gamma ^ (floor(iter / step))
# - exp: return base_lr * gamma ^ iter
# - inv: return base_lr * (1 + gamma * iter) ^ (- power)
# - multistep: similar to step but it allows non uniform steps defined by
# stepvalue
# - poly: the effective learning rate follows a polynomial decay, to be
# zero by the max_iter. return base_lr (1 - iter/max_iter) ^ (power)
# - sigmoid: the effective learning rate follows a sigmod decay
# return base_lr ( 1/(1 + exp(-gamma * (iter - stepsize))))
#
# where base_lr, max_iter, gamma, step, stepvalue and power are defined
# in the solver parameter protocol buffer, and iter is the current iteration.
相关文章推荐
- caffe中的Solver、SGDSolver、 solver.prototxt 学习笔记
- caffe 学习笔记-prototxt文件定义与读取
- 【神经网络与深度学习】Caffe部署中的几个train-test-solver-prototxt-deploy等说明<二>
- 薛开宇学习笔记二之总结笔记--caffe 中solver.prototxt;train_val.prototxt的一些参数介绍
- caffe搭建以及初步学习--win7-vs2013-gtx650tiboost-cuda8.0-cifar10训练和测试-2-快速解决方案cifar10_quick_solver.prototxt
- caffe搭建以及初步学习--win7-vs2013-gtx650tiboost-cuda8.0-cifar10训练和测试-2-完整解决方案cifar10_full_solver.prototxt
- caffe学习笔记:caffe网络模型文件(.prototxt)layer与layers区别
- 【神经网络与深度学习】Caffe部署中的几个train-test-solver-prototxt-deploy等说明
- Caffe solver.prototxt学习
- 薛开宇学习笔记二之总结笔记--caffe imagenet训练中train_val.prototxt中数据层及其参数设置
- 深度学习caffe平台--train_val.prototxt文件中激活层(Activiation Layers)及参数及参数详解
- Caffe 学习笔记之CIFFA-10
- DL学习笔记【10】caffe参数调节-CNN常用参数记录
- Caffe部署中的几个train-test-solver-prototxt-deploy等说明 (一)
- caffe学习笔记(10):Gradient descent optimization algorithm
- 薛开宇学习笔记一之总结笔记(CIFAR-10 在 在 caffe 上进行训练与学习)--Linux语法总结
- Caffe 关于 LetNet-5 之 lenet_solver.prototxt 解析
- Caffe部署中的几个train-test-solver-prototxt-deploy等说明 (二)
- Caffe部署中的几个train-test-solver-prototxt-deploy等说明<三>
- Caffe学习笔记8:solver参数配置