为了账号安全,请及时绑定邮箱和手机立即绑定

最赞回答 / iioouu
```import numpy as npclass perceptron(object):    """    eta :学习率    n_iter: 权重向量的训练次数    w_: 神经分叉权重向量    errors_: 用于记录神经元判断出错次数    """    def _int_(self,eta=0.01,n_iter=10):        self.eta=eta;        self.n_iter=n_iter;        pass    def fit(self,x,y)...

最新回答 / 慕桂英0578445
2乘N的矩阵吧,感觉是数字本身平方再求矩阵各数之和

最新回答 / 慕田峪3143110
冒号是错的,只有逗号,老师后来更正了

最新回答 / SherlockZoom
感知机的学习是有监督学习,在训练过程是有正确的类别来指导学习的,也就是每轮训练给出分类结果之后,只需要和gold类别对比就可以知道是否分类正确。

最赞回答 / 慕函数5970831
感知器其实就是一个函数,其表示形式可以写成<...code...>上式中,w是权重(weigh)向量,b叫做偏置(bias)本教程中的w0就是上面式子里的偏置b.dot(w,x)+b又可以写成 dot(w,x)+b*1,这里令W=[b,w1,w2,...,wn]   ,令X=[1,x1,x2,...,xn],所以初始化W的长度为n+1,多出来的那个就是偏置啦希望能帮到你~

最新回答 / 慕前端1296039
首先,我们所求的答案并不一定是最优答案(最值),而通常是相对最优答案(极值)。拿周志华机器学习中的例子来说,当你站在山坡的某个位置时,只看你当前位置朝哪个方向走下山最快(即求导的过程),然后朝那个方向迈出一步(即更新权重的过程),之后继续看朝哪个方向走下山最快,再继续迈出一步(反复迭代)。也许,你会走到真正的山底(最值),也许你遇到某个坑就停下了(极值)。而针对极值,如果想要跳出,就涉及后面的优化算法了。

已采纳回答 / 夏沫漓
将net_input 和 predict 方法 放到 fit方法外面

最赞回答 / Miss_Squirrel
<...code...>这部分代码其实只是为了描绘出分隔两类的那条分界线,减1只是为了扩大坐标轴范围,点更居中一些,这样画出的图会更好看。以上,谢谢!

最赞回答 / 慕粉1047314704
3.0的,2.0没接触过,不过以后的python肯定都是用3.0构建啊,而2.0很多和3.0不一样,所以还是使用3.0比较好

最新回答 / 乘龙
相当于[1,1,1……1].dot(errors),所有的x0都被初始化为1了,所以跟sum函数的意思一样,老师就直接写成sum了
课程须知
有一定的编程基础,例如掌握C语言。
老师告诉你能学到什么?
1、机器学习的基本概念介绍 2、数据分类算法介绍 3、神经元感知器分类算法并进行实现 4、数据解析和可视化设计 5、使用数据训练神经网络 6、如何使用训练后的神经网络分类数据 7、适应性线性神经元的基本原理并实现 8、适应性线性神经元网络进行数据分类

微信扫码,参与3人拼团

意见反馈 帮助中心 APP下载
官方微信
友情提示:

您好,此课程属于迁移课程,您已购买该课程,无需重复购买,感谢您对慕课网的支持!

本次提问将花费2个积分

你的积分不足,无法发表

为什么扣积分?

本次提问将花费2个积分

继续发表请点击 "确定"

为什么扣积分?

举报

0/150
提交
取消