为了账号安全,请及时绑定邮箱和手机立即绑定

1.3 神经网络入门-梯度下降与Transorflow基础

标签:
深度学习

1.3 梯度下降与Transorflow基础

关于梯度下降的解可以参考这篇文章:https://www.jianshu.com/p/bf50fc0aa9f3

Transorflow基础

  • Google Brain的第二代机器学习框架

  • 开源社区活跃

  • 可扩展性强

  • API建全,对用户友好

  • 计算图模型

    • 命令式编程

      webp

      image

    • 声明式编程

      webp

      image

    • 命令式编程和声明式编程对比

      webp

      image

      声明式编程的优点:得到计算图之后,很多计算图通用的特性就可以利用的上了,比如一个神经网络有多层,每一层的计算是相似的,所以曾与层直接的求导方式也是相似的,我们可以写一个通用的函数附加到神经网络上,这样的函数可以针对任意参数的神经网络去计算,这个时候如果有一个新的神经网络的话,我就不用去写一个新的函数去求导;

      而命令式编程却做不到,以为他的变量都是自己定义的

    • 神经网络的模型是实现设定好的,但是数据先前是不知道的,所以需要定义好神经网络之后,才能把数据输入进来,去调整参数,使得神经网络可以去符合这个数据,所以这就是Transorflow框架使用计算图模型的基础



作者:Meet相识_bfa5
链接:https://www.jianshu.com/p/ddb543aa508f


点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消