Tensorflow实现神经网络拟合线性回归
2019-07-19 11:29
459 查看
本文实例为大家分享了Tensorflow实现神经网络拟合线性回归的具体代码,供大家参考,具体内容如下
一、利用简单的一层神经网络拟合一个函数 y = x^2 ,其中加入部分噪声作为偏置值防止拟合曲线过拟合
import tensorflow as tf import numpy as np import matplotlib.pyplot as plt # 生成-0.5到0.5间均匀发布的200个点,将数据变为二维,200行一列的数据 x_data = np.linspace(-0.5, 0.5, 200)[:, np.newaxis] # 生成一些噪音数据 noise = np.random.normal(0, 0.02, x_data.shape) # 定义y与x的关系 y_data = np.square(x_data) + noise # 定义两个占位符 x = tf.placeholder(tf.float32, [None, 1]) # 形状为n行1列,同x_data的shape y = tf.placeholder(tf.float32, [None, 1]) # 定义神经网络 # 定义中间层,因为每个x是一维,所以只需1个神经元,定义中间层的连接神经元是10 # 矩阵:[a, b]×[b, c] = [a, c] L1_weights = tf.Variable(tf.random_normal([1, 10])) L1_bias = tf.Variable(tf.zeros([1, 10])) L1_weights_bias = tf.matmul(x, L1_weights) + L1_bias L1 = tf.nn.tanh(L1_weights_bias) # 定义输出层,每个x只有一个神经元 L2_weights = tf.Variable(tf.random_normal([10, 1])) L2_bias = tf.Variable(tf.zeros([1, 1])) L2_weights_bias = tf.matmul(L1, L2_weights) + L2_bias L2 = tf.nn.tanh(L2_weights_bias) # 定义损失函数 loss = tf.reduce_mean(tf.square(y - L2)) # 梯度下降最小化损失函数 optimizer = tf.train.GradientDescentOptimizer(0.1) train_step = optimizer.minimize(loss) # 全局变量初始化 init = tf.global_variables_initializer() # 定义会话 with tf.Session() as sess: sess.run(init) for _ in range(2000): sess.run(train_step, feed_dict={x:x_data, y:y_data}) # 获取预测值 predict = sess.run(L2, feed_dict={x:x_data}) # 画图 plt.figure() # 画出散点 plt.scatter(x_data, y_data) # 画出拟合的曲线 plt.plot(x_data, predict) plt.show()
二、代码运行效果如下:
以上就是本文的全部内容,希望对大家的学习有所帮助
您可能感兴趣的文章:
相关文章推荐
- Tensorflow 入门学习3 Hello TensorFlow 建立一个隐藏层的神经网络实现回归分析
- 利用tensorflow一步一步实现基于MNIST 数据集进行手写数字识别的神经网络,逻辑回归
- 【Tensorflow】Python实现神经网络回归
- 机器学习与Tensorflow(2)——神经网络及Tensorflow实现
- 深度神经网络及TensorFlow实现1-激活函数(Activation Function)2
- 对抗神经网络学习(九)——CartoonGAN+爬虫生成《言叶之庭》风格的影像(tensorflow实现)
- tensorflow使用神经网络实现mnist分类
- TensorFlow实现神经网络
- 基于回归神经网络的中文语句模型实践(Python+Tensorflow+阿里云)
- (三)TensorFlow实现神经网络
- tensorflow56 《TensorFlow技术解析与实战》06 神经网络的发展及其Tensorflow实现
- TensorFlow实现经典深度学习网络(7):TensorFlow实现双向长短时记忆循环神经网络
- 利用tensorflow 一步一步实现一个简单神经网络,线性回归
- MATLAB神经网络编程(三)——线性神经网络的构建与实现
- 对抗神经网络学习(一)——GAN实现mnist手写数字生成(tensorflow实现)
- 机器学习之文本分类-神经网络TensorFlow实现(一)
- (#########优化器函数########)TensorFlow实现与优化深度神经网络
- Tensorflow实现全链接神经网络
- 机器学习与神经网络(三):自适应线性神经元的介绍和Python代码实现