懒阳的深度学习日记tf2.0线性回归
2020-04-02 18:30
931 查看
tf-线性回归模型
TensorFlow2.0——简单线性回归
关于初次使用tensorflow遇到的坑
tf2.0 实现线性回归1.0版本的好多API函数都不能用了太难受了,自己还是入门,一步一步探索。本次主要是预测w,以及参数b。预测和自己规定的数据相差不多,效果还可以。自己也会慢慢努力学习,加油。
import numpy as np import tensorflow as tf import matplotlib.pyplot as plt #随机生成1000个点,围绕在 y=0.1x + 0.3 num_point =1000 vector_set=[] for i in range(num_point): x1 = np.random.normal(0.0,0.55) y1 = x1 * 0.1 +0.3 + np.random.normal(0.0,0.03) vector_set.append([x1,y1]) x_data = [v[0] for v in vector_set] y_data = [v[1] for v in vector_set] plt.scatter(x_data,y_data,c='r') plt.show() #print(len(x_data)) #print(y_data) w=tf.Variable(tf.random.uniform((1,), -1.0, 1.0)) print(w) b=tf.Variable(tf.zeros([1]),name='b') #y=w*x_data +b #print(y) losses = [] #以预估值y和真实值y_data之间的均方误差作为损失 #loss = tf.reduce_mean(tf.square(y-y_data),name='loss') opt = tf.keras.optimizers.SGD(1e-1) for i in range(1000): loss = lambda: tf.losses.MeanSquaredError()(w*x_data+b, y_data) #采用梯度下降法来优化参数 opt.minimize(loss, var_list=[w,b]) losses.append(loss().numpy()) print(w) print(b)
- 点赞
- 收藏
- 分享
- 文章举报
相关文章推荐
- 懒阳的深度学习日记tf2.0 mnist分类
- 机器学习与深度学习系列连载: 第一部分 机器学习(二)监督学习:线性回归
- 非监督特征学习与深度学习(一)----线性回归
- 从线性模型到决策树再到深度学习的分位数回归
- 动手深度学习(一):线性回归
- 深度学习(tensorflow版本)(一)-----拟合y=w*x+b,从线性回归说起逻辑回归与FM(含推导、手撕及Python和scala代码)
- 动手学深度学习(PyTorch)task01:线性回归;Softmax与分类模型、多层感知机
- 家乐的深度学习笔记「3」 - 线性回归
- 线性回归决定系数之Why SST=SSE+SSR
- 深度学习入门实战(二)-用TensorFlow训练线性回归
- 线性回归之实践
- 回归分析之线性回归
- 吴恩达机器学习训练1:线性回归(单变量)
- 线性回归总结
- 对线性回归、逻辑回归、各种回归的概念学习
- 线性回归、logistic回归、一般线性模型回归
- sklearn机器学习(五)线性回归算法测算房价
- 机器学习总结(lecture 3)算法:线性回归Linear Regression(LR)
- 数论学习日记三—欧拉函数及欧拉线性筛
- 线性模型之对数几率回归