为了账号安全,请及时绑定邮箱和手机立即绑定

神经网络简介

花一个多小时学完了这门神经网络简介这门课程

课程链接:https://www.imooc.com/learn/930

对其有了一些了解

  • 这门课程和数学有很大的联系,让我感受到了数学的神奇伟大美丽

    课程中用到了求导、线性函数、非线性函数即线性组合、非线性处理。


  • 大概就是用局部的线性函数来表示全体的非线性函数,类似积分了

  • 比较重要的一张图

  • 单层神经网络:原始值、隐含层、输出层、输出值。神奇的x与y,好强大

  • https://img1.sycdn.imooc.com/5ea566bf0001ade719201080.jpg

  • 运用到了线性组合、非线性处理:

解决非线性问题,每一个神经元,将输入值进行线性组合,然后转化为非线性结果

  • 认识了几个函数:

    梯度下降,损失函数,激励(活)函数

  • 逻辑回归模型

  • 反向传播算法,个人理解就是通过电脑计算机判断,如果错误就返回给一个信号,然后计算机修改

    然后不断的改正错误和刺激,来达到人工智能神经网络

    5be026a80001ed0019201080.jpg

  • 激励函数暂时学了三种

  • 默认ReLU函数

  • Sigmoid函数,(需要整个区间可导)

  • tanh函数

  • 5bb870af00012f2619201080.jpg


点击查看更多内容
1人点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消