最新回答 / 慕前端1296039
首先,我们所求的答案并不一定是最优答案(最值),而通常是相对最优答案(极值)。拿周志华机器学习中的例子来说,当你站在山坡的某个位置时,只看你当前位置朝哪个方向走下山最快(即求导的过程),然后朝那个方向迈出一步(即更新权重的过程),之后继续看朝哪个方向走下山最快,再继续迈出一步(反复迭代)。也许,你会走到真正的山底(最值),也许你遇到某个坑就停下了(极值)。而针对极值,如果想要跳出,就涉及后面的优化算法了。
2017-07-02
最赞回答 / Miss_Squirrel
<...code...>这部分代码其实只是为了描绘出分隔两类的那条分界线,减1只是为了扩大坐标轴范围,点更居中一些,这样画出的图会更好看。以上,谢谢!
2017-06-08
最新回答 / Wendy_one
原理是△wj的公式(不方便打)中y(i)-φ (z(i))是errors ,根据求和得到errors.sum()。errors.sum()中的每一个值再与self.eta(学习率)想相乘,也就是△w(w:=w+△w),而self.w_[0]就是w.也就是对△wj公式和w:=w+△w公式的一个推导。
2017-05-25
最新回答 / qq_破晓_36
self没有定义,你少抄了 def __init__(self, eta=0.01, n_iter=10): self.eta = eta self.n_iter = n_iter
2017-05-24
最赞回答 / 只是疯狂只是野
找到了,把下面的数据放到一个txt文件中,再把后缀改为.csv就能用了5.1,3.5,1.4,0.2,Iris-setosa4.9,3.0,1.4,0.2,Iris-setosa4.7,3.2,1.3,0.2,Iris-setosa4.6,3.1,1.5,0.2,Iris-setosa5.0,3.6,1.4,0.2,Iris-setosa5.4,3.9,1.7,0.4,Iris-setosa4.6,3.4,1.4,0.3,Iris-setosa5.0,3.4,1.5,0.2,Iris-setosa4.4,...
2017-05-21