为了账号安全,请及时绑定邮箱和手机立即绑定

【九月打卡】第二天 单、多层感知机

学习课程:玩转机器学习之神经网络,系统入门算法工程师

章节名称:第2章 入门必修:单、多层感知机

讲师:Markov_Xi

课程内容:

逻辑回归

https://img2.sycdn.imooc.com/631846e600016e1213930785.jpg

在对线性回归模型的预测结果取对数几率来让其的结果无限逼近0和1。因此,其对应的模型被称为”对数几率回归“(logistic Regression),也就是逻辑回归,这个名为“回归”却是用来做分类工作的分类器。

https://img3.sycdn.imooc.com/631843080001506313850772.jpg

Sigmoid函数的公式和性质

Sigmoid函数是一个S型的函数,当自变量z趋近正无穷时,因变量g(z)趋近于1,而当z趋近负无穷时,g(z)趋近

于0,它能够将任何实数映射到(0,1)区间,使其可用于将任意值函数转换为更适合二分类的函数。

因为这个性质,Sigmoid函数也被当作是归一化的一种方法,与MinMaxSclaer原理一致,是属于

数据预处理中的“缩放”功能,可以将数据压缩到[0,1]之内。区别在于,MinMaxScaler归一化之后,是可以取

到0和1的(最大值归一化后就是1,最小值归一化后就是0),但Sigmoid函数只是无限趋近于0和1。

https://img3.sycdn.imooc.com/631846130001581a13840782.jpg

损失函数

衡量参数的优劣的评估指标,用来求解最优参数的工具

损失函数小,模型在训练集上表现优异,拟合充分,参数优秀

损失函数大,模型在训练集上表现差劲,拟合不足,参数糟糕

我们追求,能够让损失函数最小化的参数组合

注意:没有”求解参数“需求的模型没有损失函数,比如KNN,决策树


https://img1.sycdn.imooc.com/63183b5f0001c65d13850779.jpg

单层/多层感知机

https://img4.sycdn.imooc.com/63183f060001fe2513810775.jpg

https://img2.sycdn.imooc.com/631843950001c09413820778.jpg


学习收获:

1、对逻辑回归有了进一步认识

2、对单层、多层感知机及深度学习的关系加深了理解

3、对深度学习的流程有全貌的概览

4、对pytorch实现以及数学公式像代码转换有了一定的训练

5、对深度学习工程项目结构有了新的认知


打卡截图:

https://img2.sycdn.imooc.com/6318391a00011e3013790778.jpg

https://img3.sycdn.imooc.com/63183fa20001edcd13860780.jpg


点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消