为了账号安全,请及时绑定邮箱和手机立即绑定
神经网络怎么培训的,是不是漏掉讲了,懵逼了?
期待下一节
感谢分享!收益了!

最新回答 / 慕田峪3143110
冒号是错的,只有逗号,老师后来更正了

最新回答 / SherlockZoom
感知机的学习是有监督学习,在训练过程是有正确的类别来指导学习的,也就是每轮训练给出分类结果之后,只需要和gold类别对比就可以知道是否分类正确。
这个讲的还算 挺简单的 2倍速看也能听懂!

最赞回答 / 慕函数5970831
感知器其实就是一个函数,其表示形式可以写成<...code...>上式中,w是权重(weigh)向量,b叫做偏置(bias)本教程中的w0就是上面式子里的偏置b.dot(w,x)+b又可以写成 dot(w,x)+b*1,这里令W=[b,w1,w2,...,wn]   ,令X=[1,x1,x2,...,xn],所以初始化W的长度为n+1,多出来的那个就是偏置啦希望能帮到你~

最新回答 / 慕前端1296039
首先,我们所求的答案并不一定是最优答案(最值),而通常是相对最优答案(极值)。拿周志华机器学习中的例子来说,当你站在山坡的某个位置时,只看你当前位置朝哪个方向走下山最快(即求导的过程),然后朝那个方向迈出一步(即更新权重的过程),之后继续看朝哪个方向走下山最快,再继续迈出一步(反复迭代)。也许,你会走到真正的山底(最值),也许你遇到某个坑就停下了(极值)。而针对极值,如果想要跳出,就涉及后面的优化算法了。

已采纳回答 / 夏沫漓
将net_input 和 predict 方法 放到 fit方法外面
errors+=int(update!=0.0)
self.errors_.append(errors)
pass

pass
def net_input(self,x):
return np.dot(X,self.w_[1:])+self.w_[0]
pass
def predict(self,x):
return np.where(self.net_input(x)&gt;=0.0,1,-1)
pass
pass
pass
点赞排序吧!
self.w_=np.zeros(1+x.shape[1]);
self.errors_=[]
for _ in range(self.n_iter):
errors=0
for xi,taret in zip(x,y):
&quot;&quot;&quot;
update=eat*(y-y&#039;)
xi 向量
&quot;&quot;&quot;
update =self.eta*(target-self.predict(xi))

self.w_[1:]+=update*xi
self.w_[0]+=update;
#-*- coding: utf8 -*-
import numpy as np
class Perceptron(object):
&quot;&quot;&quot;
eat 学习率
n_iter 权重向量的训练次数
w—— 神经分叉权重
errors 记录神经元判断出错次数

&quot;&quot;&quot;
def __init__(self, eat=0.01,n_iter=10):

self.eta = eta
self.n_iter=n_iter
def fit(self,x,y):
期待下一次的课程易懂
听的昏昏欲睡
求老师用的软件的下载地址 windows 64位 谢谢
课程须知
有一定的编程基础,例如掌握C语言。
老师告诉你能学到什么?
1、机器学习的基本概念介绍 2、数据分类算法介绍 3、神经元感知器分类算法并进行实现 4、数据解析和可视化设计 5、使用数据训练神经网络 6、如何使用训练后的神经网络分类数据 7、适应性线性神经元的基本原理并实现 8、适应性线性神经元网络进行数据分类

微信扫码,参与3人拼团

意见反馈 帮助中心 APP下载
官方微信
友情提示:

您好,此课程属于迁移课程,您已购买该课程,无需重复购买,感谢您对慕课网的支持!

本次提问将花费2个积分

你的积分不足,无法发表

为什么扣积分?

本次提问将花费2个积分

继续发表请点击 "确定"

为什么扣积分?

举报

0/150
提交
取消