-
一、条件概率与全概率条件概率:事件A已经发生的条件下事件B发生的概率 P(B|A)
P(B|A) = P(AB) / P(A)
P(AB) AB同时发生的概率
全概率:将复杂事件A的概率求解问题,转化为在不同情况下发生的简单事件的概率的求和问题
A 的概率就是 用橙黄色标记的圆环内的圆。
全概率公式是概率论中的一个重要公式,它用于计算一个事件的概率,当这个事件可以通过几个互斥的途径发生时。具体来说,如果我们有一个样本空间 SS 和一个事件 AA,并且样本空间可以被划分为几个互斥的事件 B1,B2,...,BnB1,B2,...,Bn(即这些事件两两不相交,并且它们的并集是整个样本空间),那么事件 AA 的概率可以表示为:
P(A)=P(A∣B1)P(B1)+P(A∣B2)P(B2)+...+P(A∣Bn)P(Bn)P(A)=P(A∣B1)P(B1)+P(A∣B2)P(B2)+...+P(A∣Bn)P(Bn)
其中:
P(A)P(A) 是事件 AA 发生的概率。
P(A∣Bi)P(A∣Bi) 是在事件 BiBi 发生的条件下事件 AA 发生的条件概率。
P(Bi)P(Bi) 是事件 BiBi 发生的概率。
全概率公式的直观理解是:要计算事件 AA 的总概率,我们可以分别计算在每个互斥事件 BiBi 发生的情况下 AA 发生的概率,并将这些概率加权求和,权重就是每个 BiBi 发生的概率。
这个公式在实际应用中非常有用,特别是在处理复杂问题时,可以通过分解问题来简化计算
查看全部 -
一、机器学习中的矩阵运算
函数关系:y = f(x1, x2, x3, ...)
y = Ax + B, 求A,B
x为矩阵,系数θ为列向量
y = [x][θ] + b
查看全部 -
同型矩阵:行数、列数分别相同的矩阵
必须是同型号矩阵才能进行加减运算
加法:矩阵元素分别相加,满足交换律、结合律
减法:矩阵元素分别相减
负矩阵:矩阵元素互为相反数关系的矩阵(负矩阵必定为同型矩阵)(矩阵前面有 - 负号)
矩阵的加法:矩阵元素分别相加(互为同型矩阵才能进行加法运算)
矩阵的加法满足交换律、结合律,即:
A+B=B+A
A+B+C=A+(B+C)
矩阵的减法可以理解为对负矩阵的加法,即:
A-B=A+(-B)
矩阵的数乘:数与矩阵元素分别相乘
矩阵的数乘满足交换律、结合律、分配律
矩阵与矩阵相乘:行列元素依次相乘并求和(第一个矩阵列数等于第二个矩阵行数)
矩阵与矩阵相乘不满足交换律,但满足结合律、分配律
查看全部 -
一、向量
行向量:只有一行的矩阵
列向量:只有一列的矩阵,行向量的转置
二、向量的基本运算
遵循矩阵基本运算规则
矩阵与向量相乘,结果仍为向量
查看全部 -
# python的矩阵运算 import numpy as np A = np.array([[1,2,3],[6,6,6],[7,8,9]]) print(A)
查看全部 -
深度学习可以理解为层层递进的关系
中间层A=元素X*系数+常数
输出值Y=中间层A*系数+常数
多层次则逐层运算
查看全部 -
积分公式计算公式计算
查看全部 -
积分公式计算公式计算
查看全部 -
概率分析
查看全部 -
学习大纲总结
查看全部 -
一、实战 - 朴素贝叶斯的使用
调用sklearn 朴素贝叶斯模块CategoricalNB, 训练模型基于用户基本信息,预测其购买商品的概率。
import pandas as pd import numpy as np # 数据加载 data = pd.read_csv("data.csv") data.head() # X赋值 X = data.drop(['y'], axis = 1) # y 赋值 y = data.loc[:, 'y'] # 建立模型 # pip install sklearn from sklearn.native_bayes import CategoricalNB # 建立模型实例 model = CategoricalNB() # 模型训练 model.fit(X, y) y_predict_prob = model.predict_proba(X) # 输出预测y y_predict = model.predict(X) # 计算模型准确率 from sklearn.metrics import accuracy_score accuracy = accuracy_score(y, y_predict) # 测试样本的预测 X_test = np.array([0,0,0,1,1,0]) y_test_proba = model.predict_proba(X_test) y_test = model.predict(X_test)
查看全部 -
一、贝叶斯公式
在已知一些条件下(部分事件发生的概率),实现对目标事件发生概率更准确的预测
P(B|A) = P(B) * P(A|B) / P(A)
贝叶斯公式则是利用条件概率和全概率公式计算后验概率
二、朴素贝叶斯
以贝叶斯定理为基础,假设特征之间相互独立,先通过训练数据集,学习从输入到输出的概率分布,再基于学习到的模型及输入,求出使得后验概率最大的输出实现分类。
P(Y|X) = P(Y) * P(X|Y) / P(X)
查看全部 -
一、条件概率与全概率
条件概率:事件A已经发生的条件下事件B发生的概率 P(B|A)
P(B|A) = P(AB) / P(A) # P(AB) AB同时发生的概率
全概率:将复杂事件A的概率求解问题,转化为在不同情况下发生的简单事件的概率的求和问题
查看全部 -
一、概率基础知识
矩阵、微积分 ---> 回归;概率 ---> 分类
概率:可能性的度量 likehood
查看全部 -
一、Python 实现微分与积分
使用 sympy 包
import sympy as sp
x = sp.Symbol('x')
y = 3 * x ** 2 # ** 幂运算
# 求导(求微分)
f1 = sp.diff(y)
# 求积分
F1 = sp.integrate(f1, x)
# 求极限
x = 0 时
L1 = sp.limit(y1, x, 0)
查看全部 -
一、积分
逆运算:导数推出原函数 --> 积分
不定积分:函数f的不定积分,是一个可导函数F且其导数等于原来的函数f
定积分:对于一个给定的正实数函数f(x),在一个实数区间上的定积分可以理解为在坐标平面上,由曲线、直线以及轴围成的曲边梯形的面积值。
作用:求面积,确定概率
查看全部 -
一、梯度下降法 (梯度即导数)
寻找极小值的一种方法。通过向函数上当前点对应梯度(导数)的反方向的规定步长距离点进行迭代搜索,直到在极小点收敛。
核心:从一个点出发,沿着导数的反方向逐步逼近极值点。
查看全部
举报