《deeplearning.ai》 课程一第三周 | Shallow neural networks

deeplearning.ai 是机器学习领域大牛Andrew Ng在Coursera上公布的新的深度学习的课程,相比之前机器学习的课程,本课程更偏重于深度学习的领域。

本文是课程一《Neural Networks and Deep Learning》的第三周笔记,上周我们给大家介绍了Logistic Regression,从本周开始,我们将正式开始学习神经网络,我们先从只有一个隐藏层的简单神经网络开始学习。在学习完本周课程后,我们将使用python实现一个单隐藏层的神经网络。

注:如果没有任何机器学习基础,直接学习本课程可能会有些费力,建议大家先去学习Andrew Ng机器学习课程,传送门在此 Coursera Machine Learning

基本概念

上周我们说过,逻辑回归是神经网络的基础,神经网络相比逻辑回归是添加了很多隐藏层。下图则是逻辑回归和神经网络的对比,在神经网络中,我们使用中括号的上角标来表示第几层。


image.png

在这里,我们同样使用计算图的概念来表示该神经网络,相比逻辑回归,我们多计算了一个a和z。并且我们同样使用前向传播和反向传播(梯度下降)来计算神经网络。

如下图就是神经网络的基本结构,它分为输入层,隐藏层和输出层,除了输入层和输出层的所有层都叫隐藏层。


image.png

神经网络的前向传播

如下图右上部分,我们先拿输入层和隐藏层的第一个神经元来看,其实这就是一个简单的逻辑回归,这样理解的话这个神经网络的隐藏层就是四个逻辑回归放在了一起。
这里我们需要注意下符号的表示,前面我们讲过中括号的上角标来表示第几层,那下角标则表示第几个神经元,比如z1为第一个神经元,a同理。


image.png

下图则为隐藏层的矩阵表示。


image.png

接下来我们来看隐藏层和输出层的连接,我们将隐藏层的a当做输入,发现了吗,这又是另一个逻辑回归。


image.png

注意我们前面讲的是针对一个样本,在逻辑回归时我们讲到了向量化,那么在这里我们同样需要对变量进行向量化,避免for循环,提高效率。
类比逻辑回归输入层x的向量化形式X,在神经网络里,Z就是将每个样本算出来的z横向叠加(A同理),具体如下图

image.png

神经网络中的激活函数

神经网络常用的激活函数有以下四种:Sigmoid, Tanh, ReLU, Leaky ReLU。其中Sigmoid函数我们在逻辑回归有介绍过,它的输出值在0~1之间,可以看成一个概率值,往往用在输出层,对于中间层来说,ReLU的效果最好。


image.png

激活函数都是非线性函数,那么我们为什么需要非线性的激活函数呢?
目前已有证明,如果激活函数使用线性的激活函数,那么不论有多少隐藏层,最终都是线性的组合,相当于一个线性回归。


image.png

在反向传播中,我们需要计算梯度,所以需要计算激活函数的导数,以下是四个激活函数的导数推导过程。


image.png
image.png
image.png

神经网络中的反向传播

通过上一周逻辑回归的反向传播过程,我们在这里同样使用计算图来计算神经网络中的各种梯度。


image.png

下图左侧为各个梯度的计算结果,右侧则为m个训练样本上的向量化表达。


image.png

神经网络中的参数初始化

在逻辑回归中,我们将参数w初始化为0,但如果我们在神经网络中还将w初始化为0,那么不管经过多少次前向传播和反向传播,隐藏层的所有节点都是相同的。所以我们应该随机地初始化w。


image.png

下图为具体初始化的代码实现,注意我们在初始化时乘了0.01,原因是如果我们使用了tanh作为我们的激活函数,若参数初始过大时,z也会比较大,此时梯度接近为0,梯度下降的速度就会非常的慢。


image.png

本周内容回顾

通过本周学习,我们学习到了:

  • 神经网络的基本概念
  • 神经网络的前向传播和反向传播
  • 神经网络的激活函数
  • 神经网络的参数初始化

最后贴出网易云课堂的链接,有兴趣的可以关注下我的知乎或博客,链接在最下方,可以交流下学习经验哈

网易云课堂-深度学习

?著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,100评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,308评论 3 388
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事?!?“怎么了?”我有些...
    开封第一讲书人阅读 159,718评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,275评论 1 287
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,376评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,454评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,464评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,248评论 0 269
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,686评论 1 306
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,974评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,150评论 1 342
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,817评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,484评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,140评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,374评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,012评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,041评论 2 351

推荐阅读更多精彩内容

  • 今天真的是个好日子,有幸能和微信上加了几年的朋友一起来分享时间管理100讲的课程。感觉真的是太棒了,谢谢陪...
    迭代凤儿阅读 562评论 0 0
  • 目录 本文的结构如下: 引言 什么是中介者模式 模式的结构 典型代码 代码示例 优点和缺点 适用环境 模式应用 一...
    w1992wishes阅读 1,109评论 0 4
  • 此刻,我独自待在干净简洁的旅店里,沉默不语。 这座小城,我生活了十八年,今天风尘仆仆地回来,却有些陌生。十八年的记...
    权当欢喜阅读 1,257评论 22 25