您的位置:首页 > 其它

Neural Networks and Deep Learning的学习建议

2017-10-08 21:01 495 查看

前言

刚刚完成了coursera上Neural Networks and Deep Learning这门课程的学习,并通过考核。在这里记录一下学习感受,来为大家提供一些关于这门课的资料和学习建议。

ps关于课后作业真的还是自己做一遍比较好。

课程简介

Neural Networks and Deep Learning这门课是Deeplearning.ai在cousera的系列课程的第一门课,主要作用是为学习者提供神经网络和深度学习的基础知识,为下一步的深入学习打好基础。

这门课程还是秉承着吴恩达的一贯风格,学习门槛很低,思路清晰,表达流畅,语速也较低,即使没有字幕的帮助一般水平的学习者也能扛得住。而且Andrew Ng为了打出特色特意为学习者增加了AI研发领域领军任务的访谈,这部分内容很有特色,不容错过。

关于费用

不交钱可以是听课的,但是不能完成课程的练习和考试,最终无法获得官方的认证。

Deeplearning.ai系列课程的收费机制非常特殊,是按照学习时间决定的,目前的费用是每个月49美金。按月来续订课程,如果指定时间未通过则还需要续订,直到全部通过,也就是说如果是学习能力特别强的人就算是只订一个月也可以只交49,但如果学习能力不好的人,则学习完所有课程可能需要一年那就需要连续订阅超过12次,即588。

这种收费方式我是非常认可和欣赏的,站着还把钱挣了的典范。

主要内容

课程大纲

深度学习简介,基本概念以及趋势

神经网络基础,基本模型

浅神经网络,含有一个隐含层的网络数学模型

深度神经网络,多层神经网络的优化过程

神经网络的核心流程

这部分简单介绍一下神经网络的核心计算流程,即神经网络的机器学习的实现原理,即网络优化的过程。这也是这门课讲述的核心流程。

1.初始化网络参数

2.正向计算神经网络的输出

Z[l]=W[l]A[l−1]+b[l]

σ(Z)=11+e−Z

RELU(Z)=max(0,Z)

3.计算与实际的差距J

J=−1m∑i=1m(y(i)log(a[L](i))+(1−y(i))log(1−a[L](i)))

4.根据差距来反向计算神经网络权重的变化值

dW[l]=∂L∂W[l]=1mdZ[l]A[l−1]T

db[l]=∂L∂b[l]=1m∑i=1mdZ[l](i)

dA[l−1]=∂L∂A[l−1]=W[l]TdZ[l]

5.更新网络权重

W[l]=W[l]−α dW[l]

b[l]=b[l]−α db[l]

6.重复2~5的步骤直到达到收敛标准

如下图所示:



学习建议

1.需要一定的英语水平,因为课程字幕并没有完全汉化,所以有些视频需要纯靠听力。同时我觉得字幕有时候会分散学习者的注意力,所以还是推荐听为主。

2.需要基本的python能力,因为这次课程的作业需要以python来完成,因此基本的python能力是需要的,当然使用的时候现场查也是可以的。

3.我是每天消耗不到三十分钟的时间,在一个月内完成的这门课程,基本符合官方的数据。

4.对于想学习人工智能的人来说,这门课绝对是入门首选。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  深度学习