神经网络的训练的大致流程
2017-11-03 19:20
169 查看
batch_size = n # 每次读取一小部分数据作为当前的训练数据来执行反向传播算法 x = tf.placeholder(tf.float32, shape=(batch_size, feature_num), name="x-input") y_= tf.placeholder(tf.float32, shape=(batch_size, 1), name='y-input') # 定义神经网络结构和优化算法 loss = ... # loss = -tf.reduce_mean(y_ * tf.log(tf.clip_by_value(y, 1e-10, 1.0))) ## cross_entropy(交叉熵) learning_rate = 0.001 #定义反向传播算法 train_step = tf.train.AdamOptimizer(learning_rate).minimize(loss) # 优化算法 # 训练神经网络 with tf.Session() as sess: # 参数初始化 init_op = tf.global_variables_initializer() sess.run(init_op) ... # 训练模型。 STEPS = ... # 迭代的更新参数 for i in range(STEPS): # 准备batch_size个训练数据。一般将所有训练数据打乱之后再选取可以得到更好的优化效果。 current_X, current_Y = ... # 对`tf.GraphKeys.TRAINABLE_VARIABLES`集合中的变量进行优化,使得当前batch下损失最小 sess.run(train_step, feed_dict = {x : current_X, y : current_Y})
相关文章推荐
- TensorFlow 入门之第一个神经网络训练 MNIST
- 尝试用google colab训练自己的神经网络(一)
- 【深度学习】神经网络的分布式训练(1)
- 传统神经网络ANN训练算法总结
- 入门| 神经网络训练中,Epoch、Batch Size和迭代傻傻分不清?
- Python实现神经网络Part 2: 训练单个神经元找到最优解
- (Caffe,LeNet)网络训练流程(二)
- 【1708.04347】用非常少的图片训练神经网络(先占个坑)
- C++从零实现深度神经网络之三——神经网络的训练和测试
- 网络风险评估与大致流程
- 训练一个神经网络 能让她认得我
- 【神经网络与深度学习】Caffe使用step by step:使用自己数据对已经训练好的模型进行finetuning
- tensorflow的基本用法(五)——创建神经网络并训练
- 从0开始训练识别手写数字的神经网络
- 使用Tensorflow训练神经网络模型---自定义损失函数
- Principles of training multi-layer neural network using backpropagation 使用后向传播算法训练多层神经网络的规则
- mxnet实现神经网络训练与预测项目
- 神经网络训练中的Tricks之高效BP(反向传播算法)
- Joone框架的神经网络如何保存和载入训练好的模型
- 从零开始教你训练神经网络(附公式&学习资源)