为了账号安全,请及时绑定邮箱和手机立即绑定

人工智能数学基础与Python实战

难度初级
时长 3小时30分
学习人数
综合评分9.00
18人评价 查看评价
9.1 内容实用
9.1 简洁易懂
8.8 逻辑清晰
  • 一、条件概率与全概率条件概率:事件A已经发生的条件下事件B发生的概率 P(B|A) 

        P(B|A) = P(AB) / P(A)      

        P(AB) AB同时发生的概率 

    全概率:将复杂事件A的概率求解问题,转化为在不同情况下发生的简单事件的概率的求和问题

    https://img1.sycdn.imooc.com/674066ae00018c0b22261268.jpg


    https://img1.sycdn.imooc.com/674066ef00018b3115080854.jpg


     https://img1.sycdn.imooc.com/6740683800016c1d15720960.jpg

    A 的概率就是 用橙黄色标记的圆环内的圆。




    全概率公式是概率论中的一个重要公式,它用于计算一个事件的概率,当这个事件可以通过几个互斥的途径发生时。具体来说,如果我们有一个样本空间 SS 和一个事件 AA,并且样本空间可以被划分为几个互斥的事件 B1,B2,...,BnB1,B2,...,Bn(即这些事件两两不相交,并且它们的并集是整个样本空间),那么事件 AA 的概率可以表示为:

    P(A)=P(A∣B1)P(B1)+P(A∣B2)P(B2)+...+P(A∣Bn)P(Bn)P(A)=P(A∣B1)P(B1)+P(A∣B2)P(B2)+...+P(A∣Bn)P(Bn)

    其中:

    P(A)P(A) 是事件 AA 发生的概率。

    P(A∣Bi)P(A∣Bi) 是在事件 BiBi 发生的条件下事件 AA 发生的条件概率。

    P(Bi)P(Bi) 是事件 BiBi 发生的概率。

    全概率公式的直观理解是:要计算事件 AA 的总概率,我们可以分别计算在每个互斥事件 BiBi 发生的情况下 AA 发生的概率,并将这些概率加权求和,权重就是每个 BiBi 发生的概率。

    这个公式在实际应用中非常有用,特别是在处理复杂问题时,可以通过分解问题来简化计算

    查看全部
  • 一、机器学习中的矩阵运算

    函数关系:y = f(x1, x2, x3, ...)

    y = Ax + B, 求A,B

     x为矩阵,系数θ为列向量

    y = [x][θ] + b


    https://img1.sycdn.imooc.com/673f180b0001983f14560860.jpg

    https://img1.sycdn.imooc.com/673f189e0001df9715060940.jpg


    https://img1.sycdn.imooc.com/673f1940000173fa16120906.jpg

    https://img1.sycdn.imooc.com/673f19fb0001667a17660896.jpg

    https://img1.sycdn.imooc.com/673f1a720001fb8b14940882.jpg

    https://img1.sycdn.imooc.com/673f1b0000010be816760910.jpg

    查看全部
  • 同型矩阵:行数、列数分别相同的矩阵

        必须是同型号矩阵才能进行加减运算

        加法:矩阵元素分别相加,满足交换律、结合律

        减法:矩阵元素分别相减

    https://img1.sycdn.imooc.com/673f161b0001b4f515340942.jpg

    负矩阵:矩阵元素互为相反数关系的矩阵(负矩阵必定为同型矩阵)(矩阵前面有 - 负号)

    https://img1.sycdn.imooc.com/673f16b30001986c16180884.jpg

    矩阵的加法:矩阵元素分别相加(互为同型矩阵才能进行加法运算)

      https://img1.sycdn.imooc.com/673f16e30001a21d16360846.jpg

    矩阵的加法满足交换律、结合律,即:

        A+B=B+A

        A+B+C=A+(B+C)

        矩阵的减法可以理解为对负矩阵的加法,即:

        A-B=A+(-B)

    https://img1.sycdn.imooc.com/673f17040001730715440868.jpg

    矩阵的数乘:数与矩阵元素分别相乘

    https://img1.sycdn.imooc.com/673f173c00014b1e16380868.jpg

    矩阵的数乘满足交换律、结合律、分配律

    https://img1.sycdn.imooc.com/673f174a0001da4c10480540.jpg

    矩阵与矩阵相乘:行列元素依次相乘并求和(第一个矩阵列数等于第二个矩阵行数)

    矩阵与矩阵相乘不满足交换律,但满足结合律、分配律


    https://img1.sycdn.imooc.com/673f14de0001157f16600928.jpg

    查看全部
  • 一、向量

    行向量:只有一行的矩阵

    列向量:只有一列的矩阵,行向量的转置

     


    二、向量的基本运算

    遵循矩阵基本运算规则

    矩阵与向量相乘,结果仍为向量


    https://img1.sycdn.imooc.com/673f132e00017cda15980934.jpg


    https://img1.sycdn.imooc.com/673f14170001fe8513240822.jpg

    查看全部
  • # python的矩阵运算
    import numpy as np
    
    A = np.array([[1,2,3],[6,6,6],[7,8,9]])
    print(A)
    查看全部
  • https://img1.sycdn.imooc.com/66821e9a00017a5811320648.jpg


    深度学习可以理解为层层递进的关系

    中间层A=元素X*系数+常数

    输出值Y=中间层A*系数+常数

    多层次则逐层运算

    查看全部
  • 积分公式计算公式计算


    663c19ad0001c03806440362.jpg
    查看全部
    0 采集 收起 来源:积分

    2024-05-09

  • 积分公式计算公式计算


    663c19ad0001c03806440362.jpg
    查看全部
    0 采集 收起 来源:积分

    2024-05-09

  • 概率分析

    查看全部
    0 采集 收起 来源:概率基础知识

    2024-05-02




  • 学习大纲总结

    查看全部
    0 采集 收起 来源:课程总结

    2024-04-16

  • 一、实战 - 朴素贝叶斯的使用

    1. 调用sklearn 朴素贝叶斯模块CategoricalNB, 训练模型基于用户基本信息,预测其购买商品的概率。

    import pandas as pd
    import numpy as np
    
    # 数据加载
    data = pd.read_csv("data.csv")
    data.head()
    
    # X赋值
    X = data.drop(['y'], axis = 1)
    
    # y 赋值
    y = data.loc[:, 'y']
    
    # 建立模型
    # pip install sklearn 
    from sklearn.native_bayes import CategoricalNB
    
    # 建立模型实例
    model = CategoricalNB()
    
    # 模型训练
    model.fit(X, y)
    
    y_predict_prob = model.predict_proba(X)
    
    # 输出预测y
    y_predict = model.predict(X)
    
    # 计算模型准确率
    from sklearn.metrics import accuracy_score
    accuracy = accuracy_score(y, y_predict)
    
    # 测试样本的预测
    X_test = np.array([0,0,0,1,1,0])
    
    y_test_proba = model.predict_proba(X_test)
    
    y_test = model.predict(X_test)
    查看全部
  • 一、贝叶斯公式

    1.   在已知一些条件下(部分事件发生的概率),实现对目标事件发生概率更准确的预测

    2. P(B|A) = P(B) * P(A|B) / P(A)

    3. 贝叶斯公式则是利用条件概率和全概率公式计算后验概率


    二、朴素贝叶斯

    1. 以贝叶斯定理为基础,假设特征之间相互独立,先通过训练数据集,学习从输入到输出的概率分布,再基于学习到的模型及输入,求出使得后验概率最大的输出实现分类。

      1. P(Y|X) = P(Y) * P(X|Y) / P(X)

    查看全部
    0 采集 收起 来源:贝叶斯公式

    2024-04-16

  • 一、条件概率与全概率

    1. 条件概率:事件A已经发生的条件下事件B发生的概率 P(B|A)

      1. P(B|A) = P(AB) / P(A)      # P(AB) AB同时发生的概率 

    2. 全概率:将复杂事件A的概率求解问题,转化为在不同情况下发生的简单事件的概率的求和问题

    查看全部
  • 一、概率基础知识

    1. 矩阵、微积分 ---> 回归;概率 ---> 分类

    2. 概率:可能性的度量 likehood

    查看全部
    0 采集 收起 来源:概率基础知识

    2024-04-16

  • 一、Python 实现微分与积分

    1. 使用 sympy 包

      1. import sympy as sp



    x = sp.Symbol('x')

    y = 3 * x ** 2        # ** 幂运算


    # 求导(求微分)

    f1 = sp.diff(y)


    # 求积分

    F1 = sp.integrate(f1, x)


    # 求极限

    x = 0 时

    L1 = sp.limit(y1, x, 0)

    查看全部
  • 一、积分

    1. 逆运算:导数推出原函数 --> 积分

    2. 不定积分:函数f的不定积分,是一个可导函数F且其导数等于原来的函数f

    3. 定积分:对于一个给定的正实数函数f(x),在一个实数区间上的定积分可以理解为在坐标平面上,由曲线、直线以及轴围成的曲边梯形的面积值。

    4. 作用:求面积,确定概率

    查看全部
    0 采集 收起 来源:积分

    2024-04-16

  • 一、梯度下降法 (梯度即导数)

    1. 寻找极小值的一种方法。通过向函数上当前点对应梯度(导数)的反方向的规定步长距离点进行迭代搜索,直到在极小点收敛。

    2. 核心:从一个点出发,沿着导数的反方向逐步逼近极值点。 

    查看全部
首页上一页1234567下一页尾页

举报

0/150
提交
取消
课程须知
实战环节涉及简单的python编程,同学们需要熟悉基础的python语法。
老师告诉你能学到什么?
1、矩阵的基础知识、运算及在AI中的应用 2、极限与导数的理解 3、积分的基础知识及运算 5、条件概率、全概率的基础知识 6、贝叶斯公式与朴素贝叶斯的理解与运用

微信扫码,参与3人拼团

意见反馈 帮助中心 APP下载
官方微信
友情提示:

您好,此课程属于迁移课程,您已购买该课程,无需重复购买,感谢您对慕课网的支持!