摩尔LabAI学习小组第一次打卡
2020-03-06 16:18
876 查看
1、线性回归
要点:
1、线性回归基本要素:
回归模型、数据集、损失函数(用均方误差表示,累加所有数据的均方误差就得到整个数据的损失函数)、利用梯度下降(导数)方式进行损失函数的减小。
2、线性回归模型的矢量实现(这里用直接构建和pytorch间接构建两种方式来做)
1)尽可能使用矢量计算提高计算效率。
3、训练步骤:
1)获取数据集
2)定义线性模型
3)定义损失函数
4)定义如何优化(如梯度下降)
5)在多次迭代中进行模型训练(利用反向传播算法l.backward())
6)训练后用于房价或者其他标签预测。
2、softmax
要点:
1、模型图
2、softmax对于小批量数据的矢量计算表达式:
3、损失函数选用原则:
使用更适合衡量两个概率分布差异的测量函数;
本文选用交叉熵损失函数:
3、多层感知机
1、模型图
2、引入激活函数的作用:
上述问题的根源在于全连接层只是对数据做仿射变换(affine transformation),而多个仿射变换的叠加仍然是一个仿射变换。解决问题的一个方法是引入非线性变换,例如对隐藏变量使用按元素运算的非线性函数进行变换,然后再作为下一个全连接层的输入。这个非线性函数被称为激活函数
3、多层感知机:
- 点赞
- 收藏
- 分享
- 文章举报
相关文章推荐
- 摩尔LabAI学习小组第二次打卡
- DataWhale深度学习第一次打卡
- DataWhale 深度学习 第一次打卡
- 我们学习小组第一次的成果(经典的万年历)!
- 伯禹学习——第一次打卡
- 深度学习——打卡(第一次)
- 伯禹学习平台第一次打卡 task05
- 伯禹学习平台第一次打卡 task04
- 深度学习第一次打卡
- 伯禹学习平台第一次打卡 task03
- 伯禹学习平台第一次打卡 task01-task02
- 《动手学深度学习》第一次打卡-学习小队
- 公益AI学习第一次打卡笔记
- 《动手学深度学习》组队学习打卡Task4——机器翻译及技术
- ElitesAI·动手学深度学习PyTorch版(第二次打卡)
- 【ST学习小组】STM32F103的CAN 通信之主控器
- 第一次学习辗转相除法
- C++ Primer 第9章 顺序容器 第一次学习笔记
- 打卡:AcWing学习记录1.0
- 2013.7.3 的21:44,人生的第一个博客,开始学习Linux了,也是为此第一次写博客