为了账号安全,请及时绑定邮箱和手机立即绑定

神经网络简介

难度初级
时长50分
学习人数
综合评分8.40
68人评价 查看评价
8.4 内容实用
8.5 简洁易懂
8.3 逻辑清晰
  • 网络梯度下降

    查看全部
  • 全部训练损失

    查看全部
    0 采集 收起 来源:07损失函数

    2018-08-02

  • 三种激励函数:Sigmoid,tanh,ReLU

    查看全部
    0 采集 收起 来源:06激励函数

    2018-08-02

  • 神经网络包含

    查看全部
    0 采集 收起 来源:03课程安排

    2018-08-02

  • 逻辑回归模型

    查看全部
    0 采集 收起 来源:05逻辑回归

    2018-07-25

  • 神经元

    线性组合

    非线性处理

    查看全部
    1 采集 收起 来源:04网络结构

    2018-07-25

  • 网络结构

    激励函数

    损失函数

    梯度下降

    查看全部
    0 采集 收起 来源:03课程安排

    2018-07-25

  • 用激励函数正向运算输入值得到损失,若损失过大,用梯度下降函数对W,b进行调整

    重复正向运算,知道损失达到最小

    查看全部
    1 采集 收起 来源:12课程总结

    2018-07-22

  • 左边利用输入值通过每一层网络的结构计算出下一层输出

    直到结束,计算出损失

    右边通过损失函数不断更新W,b,知道计算出最小的损失函数

    查看全部
    0 采集 收起 来源:11训练过程

    2018-07-22

  • 观察神经网络过程形成较为直观的理解


    梯度下降逆向更新W,b

    一边正向一边逆向,重复这个流程

    https://img1.sycdn.imooc.com//5b5450610001f68106190382.jpg

    训练过程

    左边成为正向传播

    通过输入值按照每一层网络的结构计算出下一层的输出

    直到结束,结束的时候计算出整个网络的损失


    右侧是一个参数(W,b)调校的过程

    通常会用到左边的W,b参数,而这些参数通常是会缓存的,这样会提高我们的运算效率(z^n,W^n,b^n)

    实际上是逐步更新参数的过程

    然后用新的参数载重复上面的过程

    知道我们的损失函数趋向于一个最小值

    参数全部算好然后一次性更新

    查看全部
    0 采集 收起 来源:11训练过程

    2018-07-22

  • 神经网络的梯度下降——反向传播

    通过运算结果,逆向调节每一层的W,b,从而使整个神经链条达到一种最佳的状态

    https://img1.sycdn.imooc.com//5b530ae20001447a03740207.jpg

    通过w,b的线性运算和激励函数的操作,在每一层上通过这两部得到下一层的输入值

    https://img1.sycdn.imooc.com//5b530e200001dd1404240314.jpg

    倒数第二层不需要调校

    查看全部
  • 神经网络的网络向量化

    神经网络的向前传播、运算、预测——神经网络的网络向量化,对向量化进行计算的过程

    https://img1.sycdn.imooc.com//5b53081d0001b01205900374.jpg

    https://img1.sycdn.imooc.com//5b5308d30001753807490317.jpg

    https://img1.sycdn.imooc.com//5b5308f50001785104310166.jpghttps://img1.sycdn.imooc.com//5b53091f0001037a07280109.jpg


    查看全部
    0 采集 收起 来源:09网络向量化

    2018-07-21

  • 逻辑回归中的梯度下降

    w和b决定函数的样子

    https://img1.sycdn.imooc.com//5b5305800001cad704500271.jpg

    w和b同步更新

    α是学习的速率,避免计算太快,错过合适的W,

    w=w-a*(损失函数对w进行求导)

    查看全部
    0 采集 收起 来源:08梯度下降

    2018-07-21

  • 单次训练损失

    https://img1.sycdn.imooc.com//5b5301ce0001afb307540067.jpg

    全部训练损失(就是把单次训练损失加起来)

    https://img1.sycdn.imooc.com//5b5302680001550007430081.jpg


    查看全部
    0 采集 收起 来源:07损失函数

    2018-07-21

  • 激励函数:

    作用:提供规模化的非线性能力

    包括:Sigmoid、tanh、ReLU等

    Sigmoid函数适用于结果为判断是非的场合,但由于其对称中心在(0, 0.5),还需要进行数据中心化,由此提出了其改进函数tanh

    Sigmiod和tanh的缺点是当数值很大或很小时,结果变化比较平缓,由此提出了ReLU函数,

    而ReLU函数作为最普遍使用的激励函数,我们有时会使用斜率为负但是绝对值比正数小的线

    查看全部
    0 采集 收起 来源:06激励函数

    2018-07-21

举报

0/150
提交
取消
课程须知
1、机器学习基础知识 2、直观讲解神经网络核心原理
老师告诉你能学到什么?
1、神经网络的历史 2、激励函数,损失函数,梯度下降等机器学习概念 3、神经网络的学习训练过程 4、直观分析反向传播算法

微信扫码,参与3人拼团

意见反馈 帮助中心 APP下载
官方微信
友情提示:

您好,此课程属于迁移课程,您已购买该课程,无需重复购买,感谢您对慕课网的支持!