您的位置:首页 > 理论基础 > 计算机网络

Deep Learning Specialization课程笔记——神经网络编程基础

2018-03-23 11:20 471 查看
Vectorization
非向量化和向量化的区别:



在jupyter notebook上:import time

a=np.random.rand(1000000)
b=np.random.rand(1000000)

tic=time.time()
c=np.dot(a,b)
toc=time.time()
print ("vectorized version:"+ str(1000*(toc-tic))+"ms")

c=0
tic=time.time()
for i in range(1000000):
c+=a[i]*b[i]
toc=time.time()
print("for loop version:"+ str(1000*(toc-tic))+"ms")
得到结果:



说明矢量化速度比for loop快很多。
GPU和CPU都有并行化的指令,他们有时候会叫做SIMD指令,代表一个单独指令多维数据。矢量化利用了并行化去更快地计算。

More Vectorization Examples

经验之谈,在编写神经网络和逻辑回归时,都要尽可能避免使用显式的for-loop。
矩阵A和向量v的乘积例子:



向量v向向量u转化的例子:



其中v**2计算向量中每个元素的平方。
对逻辑回归代码的矢量化改写:



 Vectorizing Logistic Regression

可以实现用梯度下降的一次迭代来处理整个训练集,而不需要一个for loop。
向量化的改写公式:



Vectorizing Logistic Regression's Gradient Output

在进行梯度下降的计算时,db和dw的求解如下:



对代码的改写为:



右边的式子实现了不使用for循环完成一次梯度下降,但如果想让梯度下降迭代很多次,还是需要for循环。

Broadcasting

广播是另一种能让python代码运行更快的技术。以卡路里问题举例:





求每种食物的总卡路里:



然后计算百分比:



广播在这里的含义,是可以自动将(1,4)矩阵转变为(3,4),实现除法运算。
上上节中,加b也是运用了广播的原理。
更多广播运算:



A note on python/numpy vectors



具体的note见注释。
assert(a.shape==(5,1))断言语句。
这节的要点就是:为了简化代码,不要用秩为一的矩阵

Quick tour of Jupyter/iPython Notebooks

没有什么内容。

Explanation of logistic regression cost function
loss function公式的推导:



cost function的推导:

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: 
相关文章推荐