• 【概率论与数理统计】【线性代数】计算机保研复习


    我他妈写一上午了直接没了,这狗csdn,别在已发布的文章上改,辣鸡玩意儿。

    概率论与数理统计

    1.基础

    事件独立:P(AB)=P(A)P(B) ;
    古典概型:有限、等可能、最简单;
    几何概型:无限、有限的几何区域、等可能;
    伯努利概型:每次实验独立,只有A与 A ‾ \overline{A} A两种结果;
    条件概率:A在已知B发生了的概率,称为在B发生下A的条件概率;
    乘法公式:P(AB)=P(A)P(B|A)=P(B)P(A|B)
    P(AB)=P(A)-P(A B ‾ \overline{B} B) ;
    全概率公式:P(A)=P(A|B1)P(B1)+……+P(A|Bn)P(Bn)
    B1……Bn是对样本空间的划分,A是其上的一个事件;为了把导致A发生的概率找全;
    二项式定理
    Pn(k)=Cknpkqn-k
    A在n次实验中发生k次的概率。

    2.贝叶斯公式

    P ( B   i   ∣ A ) = P ( A ∣ B   i   ) P ( B   i   ) ∑ j = 1 n P ( A ∣ B   j   ) P ( B   j   ) P(B~i~|A)=\frac{P(A|B~i~)P(B~i~)}{\sum_{j=1}^{n}P(A|B~j~)P(B~j~)} P(B i A)=j=1nP(AB j )P(B j )P(AB i )P(B i )
    上面是乘法公式,下面是全概率公式,证明:
    P ( B   i   ∣ A ) = P ( B   i   A ) P ( A ) P(B~i~|A)=\frac{P(B~i~A)}{P(A)} P(B i A)=P(A)P(B i A)

    1. 条件概率公式:原因发生—>结果(由原因推出结果)
      (先验概率公式:根据经验,或者叫做根据已知的数据推出来)
    2. 全概率公式:我们很好由已知的数据求得P(Ci),但是很难求得P(x),故可以转化为:P(x)=(i从1–>n求和)(P(xCi));
    3. 贝叶斯公式(后验概率公式):已知结果,反推原因出现的可能性。比如已知某个类具有某种属性,那么它属于哪个类别(具有标签),这种就是后验概率。
    4. 贝叶斯公式用于机器学习中的贝叶斯分类模型,主要是用训练数据去学习一个模型(模型计算出所有的P(Ci)、P(ai|Ci)、P(ai),ai表示的是具体的属性),然后每个待分类的测试样本用贝叶斯进行分类,根据其拥有的属性去计算P(Ci|x)中值最大的那个Ci即可。

    全概率是用原因推结果,贝叶斯是用结果推原因。

    先验概率(prior probability):指根据以往经验和分析。在实验或采样前就可以得到的概率。事情未发生,只根据以往数据统计,分析事情发生的可能性,即先验概率。P(Bi) ;Bi
    是该事件若干可能的前提。
    后验概率(posterior probability):指某件事已经发生,想要计算这件事发生的原因是由某个因素引起的概率。事情已发生,已有结果,求引起这事发生的因素的可能性,由果求因,即后验概率。
    P(Bi|A);已知结果A,对前提Bi的重新计算。

    3.大数定律(Law of the large numbers)

    它告诉我们在随机事件的大量重复出现中,往往呈现几乎必然的规律。在试验不变的条件下,重复试验多次,随机事件的概率近似于它出现的频率。揭示了平均结果的稳定性。大数定律的条件:1、独立重复事件;2、重复次数足够多。

    4.中心极限定理

    指的是(在一定条件下,随机变量个数比较多时)相互独立的随机变量之和近似服从正态分布。

    1. 所以n个独立同分布的随机变量之和服从正态分布。---->变形之后可以服从标准正态分布。
    2. 列维中心极限定理:n个独立同分布随机变量之和。
    3. 拉普拉斯中心极限定理:n次独立重复实验,事件A发生的次数。

    大数定律更关注的是样本均值,中心极限定理关注的是样本均值的分布

    5.最大似然估计

    一种参数估计方法。利用已知的样本,找出最有可能生成该样本的参数。最大似然估计的思想在于,对于给定的观测数据x,我们希望能从所有的参数中找出能最大概率生成观测数据x的参数作为估计结果。

    6. 期望、方差和协方差

    期望:随机变量的均值;大数定律指出如果样本足够的话,样本均值会无限接近数学期望。它反映随机变量平均取值的大小。
    方差:每个样本值与全体样本值的平均数之差的平方值的平均数。衡量一组数据的离散程度,度量随机变量和其数学期望(即均值)之间的偏离程度。
    协方差:X, Y 的协方差等于每一个 X 减去 X 平均值乘上每一个 Y 减去 Y 平均值的乘积的和的平均。协方差表示的是两个变量总体误差的期望。

    面试题

    1.正态分布的和还是正态分布吗:

    是,正态分布的可加性。

    2.先验概率与后验概率:

    先验概率是根据之前数据得到的概率,分析事件发生的可能性;
    后验概率是事件已经发生,想要计算导致它发生的原因。

    3.贝叶斯公式:
    已知结果,反推原因。后验概率,乘法公式和全概率公式推导。

    线性代数

    1.秩☆

    矩阵的秩:最高阶非零子式的阶数;
    满秩矩阵:秩数等于矩阵阶数;
    秩就是矩阵线性无关列(行)向量的最大数目。
    行秩等于列秩。
    向量组的秩定义为向量组的极大线性无关组所含向量的个数。
    任何矩阵的行空间的维数等于矩阵的列空间的维数等于矩阵的秩。

    2. 行列式

    行列式,是一个将方阵 A 映射到实数的函数。
    行列式等于矩阵特征值的乘积。
    n阶行列式:所有取自不同行不同列的n个元乘积的代数和即为n阶行列式的值。
    二维的矩阵,它的行列式代表的是面积变化,对于三维来讲,行列式代表的就是体积变化。

    3.线性相关性

    对于线性空间中的n个向量,假如存在n个常数使得这n个常数与n个向量对应乘积加合等于0,则称这n个向量线性相关,如果不存在这样的n个常数,称之为线性无关。(n个常数不全为0)

    4.向量空间

    向量相加和数乘之后还在该空间内,则它们属于一个向量空间。

    在线性空间V中可以找到n个向量,这n个向量线性无关,并且线性空间V中的任意一个向量都和这n个向量线性相关,那么这n个向量就称作线性空间V的

    5. 特征值与特征向量☆

    对方阵 A 满足:Ax=λx,其中 x 为非零向量,则称 x 为特征向量,λ 为特征值。
    一个特征值可能对应多个特征向量,一个特征向量只能属于一个特征值。
    矩阵可以说是一个变换,它作用于特征向量x时,x的方向不变,只进行缩放变换,缩放大小由特征值决定。
    特征向量提供了复杂的矩阵乘法到简单的数乘之间的转换!

    6.正交

    矩阵正交:两矩阵相乘为0.
    正交矩阵:矩阵的转置和矩阵的乘积=单位阵,那么这个矩阵就是正交矩阵,它的列向量组一定是标准正交向量组。
    向量正交:相乘为0.
    在这里插入图片描述

    面试题

    经典面试题:线性代数

  • 相关阅读:
    [附源码]java毕业设计学生档案管理系统
    Spring AOP
    MS1205N激光测距用高精度时间测量(TDC)电路
    如何在 Linux 服务器上配置基于 SSH 密钥的身份验证
    【qml】性能优化 | 常见的界面元素优化
    性能测试环境部署
    关于黑马hive课程案例FineBI中文乱码的解决
    PHP md5_file() 函数用于判断文件是否有修改
    thinkphp6 获取url路径中的应用名、控制器名、操作名
    初阶数据结构(6)(队列的概念、常用的队列方法、队列模拟实现【用双向链表实现、用数组实现】、双端队列 (Deque)、OJ练习【用队列实现栈、用栈实现队列】)
  • 原文地址:https://blog.csdn.net/qq_46056318/article/details/126941667