课程
/AI人工智能
/深度学习
/神经网络简介
老师您好,请问一下Z函数为什么是Wx+b而不仅仅是Wx? b起到了什么作用呢?
2018-09-29
源自:神经网络简介 2-1
正在回答
偏置参数
举报
学习神经网络基本概念,在基本概念的基础上掌握神经网络基本原理
2 回答关于损失函数的几点疑问,谢谢老师!
1 回答请问激活函数和激励函数是同一个概念吗
1 回答获得损失函数面的过程,以及损失函数面的应用?
1 回答(如图)sigmoid函数和tanh函数应该不是简单的平移
5 回答a^n = g(z^n)两边求导,不应该是d(a^n)=d(z^n)*g'(z^n)=W^(nT)*d(a^(n-1))么?感觉ppt里的公式是怎么推导出来的呢。。。。。