概率论知识点总结 第1篇
(1)点估计
(2)估计量的优良性
(3)区间估计
其中:本章点估计是重点,是解答题的重灾区,一定要掌握点估计的两种解题步骤,至于(2)(3)两个可以了解下即可。
新东方沈阳学校官方微信:(微信号:xdfhhr123)
最新报班优惠、课程大纲及课件,请扫描二维码,关注我们的官方微信!
焦点推荐
小学综合培优班
初中各科提高班
初中班级课程
小学同步提高班
概率论知识点总结 第2篇
1.生物体具有共同的物质基础和结构基础。
2.从结构上说,除病毒以外,生物体都是由细胞构成的。细胞是生物体的结构和功能的基本单位。
3.新陈代谢是活细胞中全部的序的化学变化总称,是生物体进行一切生命活动的基础。
4.生物体具应激性,因而能适应周围环境。
5.生物体都有生长、发育和生殖的现象。
6.生物遗传和变异的特征,使各物种既能基本上保持稳定,又能不断地进化。
7.生物体都能适应一定的环境,也能影响环境。
知识点总结:生命的物质基础
8.组成生物体的化学元素,在无机自然界都可以找到,没有一种化学元素是生物界所特有的,这个事实说明生物界和非生物界具统一性。
9.组成生物体的化学元素,在生物体内和在无机自然界中的含量相差很大,这个事实说明生物界与非生物界还具有差异性。
10.各种生物体的一切生命活动,绝对不能离开水。
11.糖类是构成生物体的重要成分,是细胞的主要能源物质,是生物体进行生命活动的主要能源物质。
12.脂类包括脂肪、类脂和固醇等,这些物质普遍存在于生物体内。
13.蛋白质是细胞中重要的有机化合物,一切生命活动都离不开蛋白质。
14.核酸是一切生物的遗传物质,对于生物体的遗传变异和蛋白质的生物合成有极重要作用。
15.组成生物体的任何一种化合物都不能够单独地完成某一种生命活动,而只有按照一定的方式有机地组织起来,才能表现出细胞和生物体的`生命现象。细胞就是这些物质最基本的结构形式。
16.活细胞中的各种代谢活动,都与细胞膜的结构和功能有密切关系。细胞膜具一定的流动性这一结构特点,具选择透过性这一功能特性。
17.细胞壁对植物细胞有支持和保护作用。
18.细胞质基质是活细胞进行新陈代谢的主要场所,为新陈代谢的进行,提供所需要的物质和一定的环境条件。
19.线粒体是活细胞进行有氧呼吸的主要场所。
20.叶绿体是绿色植物叶肉细胞中进行光合作用的细胞器。
21.内质网与蛋白质、脂类和糖类的合成有关,也是蛋白质等的运输通道。
22.核糖体是细胞内合成为蛋白质的场所。
概率论知识点总结 第3篇
被子植物的一生
一、种子的萌发
1、种子萌发的条件:环境条件:适宜的温度、一定的水分、充足的空气 ;自身条件:具有完整的有生命力的胚,已度过休眠期
2、种子萌发的过程:吸收水分→转运营养→胚根发育成根→胚轴伸长→胚芽发育成芽→芽发育成茎和叶
3、抽样检测:抽样检测是指从检测对象中抽取少量个体作为样本进行检测。以样本的检测结果来反映总体情况的方法。
二、植株的生长
1、根尖的结构:根冠(保护)、分生区(分裂增生)、伸长区(伸长最快)、成熟区(外有根毛,内有导管)
2、幼根的生长一方面要靠分生区细胞的分裂增加细胞的数量;另一方面要靠伸长区细胞的体积的增大。
3、枝条是由芽发育成的,植株的芽可以分为顶芽和侧芽,芽中的幼叶发育成叶,芽轴发育成茎,芽原基发育成芽
4、植株生长需要营养物质:水、无机盐(需要量最多的是含氮的、含磷的含钾的无机盐)、有机物。
三、开花和结果
1、花的结构:()
2、花的主要结构是雄蕊和雌蕊,雄蕊花药里有花粉,花粉中有精子,雌蕊下部的子房里有胚珠,胚珠里有卵细胞。
3、传粉:花粉从花药中散放而落在雌蕊柱头上的过程,叫做传粉。传粉方式一般有两种类型:自花传粉和异花传粉。
4、受精:胚珠里面的卵细胞,与来自花粉管中的精子结合,形成受精卵的过程,称为受精。
概率论知识点总结 第4篇
多边形重要知识点总结
一、多边形
1、多边形:由一些线段首尾顺次连结组成的图形,叫做多边形。
2、多边形的边:组成多边形的各条线段叫做多边形的边。
3、多边形的顶点:多边形每相邻两边的公共端点叫做多边形的顶点。
4、多边形的对角线:连结多边形不相邻的两个顶点的线段叫做多边形的对角线。
5、多边形的周长:多边形各边的长度和叫做多边形的周长。
6、凸多边形:把多边形的任何一条边向两方延长,如果多边形的其他各边都在延长线所得直线的问旁,这样的多边形叫凸多边形。
说明:一个多边形至少要有三条边,有三条边的叫做三角形;有四条边的叫做四边形;有几条边的叫做几边形。今后所说的多边形,如果不特别声明,都是指凸多边形。
7、多边形的角:多边形相邻两边所组成的角叫做多边形的内角,简称多边形的角。
8、多边形的外角:多边形的角的一边与另一边的反向延长线所组成的角叫做多边形的外角。
注意:多边形的外角也就是与它有公共顶点的.内角的邻补角。
二、平行四边形
1、平行四边形:两组对边分别平行的四边形叫做平行四边形。
2、平行四边形性质定理1:平行四边形的对角相等。
3、平行四边形性质定理2:平行四边形的对边相等。
4、平行四边形性质定理2推论:夹在平行线间的平行线段相等。
5、平行四边形性质定理3:平行四边形的对角线互相平分。
6、平行四边形判定定理1:一组对边平行且相等的四边形是平行四边形。
7、平行四边形判定定理2:两组对边分别相等的四边形是平行四边形。
8、平行四边形判定定理3:对角线互相平分的四边形是平行四边形。
9、平行四边形判定定理4:两组对角分别相等的四边形是平行四边形。
说明:(1)平行四边形的定义、性质和判定是研究特殊平行四边形的基础。同时又是证明线段相等,角相等或两条直线互相平行的重要方法。
(2)平行四边形的定义即是平行四边形的一个性质,又是平行四边形的一个判定方法。
三、矩形
矩形是特殊的平行四边形,从运动变化的观点来看,当平行四边形的一个内角变为90°时,其它的边、角位置也都随之变化。因此矩形的性质是在平行四边形的基础上扩充的。
1、矩形:有一个角是直角的平行四边形叫做短形(通常也叫做长方形)
2、矩形性质定理1:矩形的四个角都是直角。
3.矩形性质定理2:矩形的对角线相等。
4、矩形判定定理1:有三个角是直角的四边形是矩形。
说明:因为四边形的内角和等于360度,已知有三个角都是直角,那么第四个角必定是直角。
5、矩形判定定理2:对角线相等的平行四边形是矩形。
说明:要判定四边形是矩形的方法是:
法一:先证明出是平行四边形,再证出有一个直角(这是用定义证明)
法二:先证明出是平行四边形,再证出对角线相等(这是判定定理1)
法三:只需证出三个角都是直角。(这是判定定理2)
四、菱形
菱形也是特殊的平行四边形,当平行四边形的两个邻边发生变化时,即当两个邻边相等时,平行四边形变成了菱形。
1、菱形:有一组邻边相等的平行四边形叫做菱形。
2、菱形的性质1:菱形的四条边相等。
3、菱形的性质2:菱形的对角线互相垂直,并且每一条对角线平分一组对角。
4、菱形判定定理1:四边都相等的四边形是菱形。
5、菱形判定定理2:对角线互相垂直的平行四边形是菱形。
说明:要判定四边形是菱形的方法是:
法一:先证出四边形是平行四边形,再证出有一组邻边相等。(这就是定义证明)。
法二:先证出四边形是平行四边形,再证出对角线互相垂直。(这是判定定理2)
法三:只需证出四边都相等。(这是判定定理1)
五、正方形
正方形是特殊的平行四边形,当邻边和内角同时运动时,又能使平行四边形的一个内角为直角且邻边相等,这样就形成了正方形。
1、正方形:有一组邻边相等并且有一个角是直角的平行四边形叫做正方形。
2、正方形性质定理1:正方形的四个角都是直角,四条边都相等。
3、正方形性质定理2:正方形的两条对角线相等,并且互相垂直平分,每条对角线平分一组对角。
4、正方形判定定理互:两条对角线互相垂直的矩形是正方形。
5、正方形判定定理2:两条对角线相等的菱形是正方形。
注意:要判定四边形是正方形的方法有
方法一:第一步证出有一组邻边相等;第二步证出有一个角是直角;第三步证出是平行四边形。(这是用定义证明)
方法二:第一步证出对角线互相垂直;第二步证出是矩形。(这是判定定理1)
方法三:第一步证出对角线相等;第二步证出是菱形。(这是判定定理2)
六、梯形
1、梯形:一组对边平行而另一组对边不平行的四边形叫做梯形。
2、梯形的底:梯形中平行的两边叫做梯形的底(通常把较短的底叫做上底,较长的边叫做下底)
3、梯形的腰:梯形中不平行的两边叫做梯形的腰。
4、梯形的高:梯形有两底的距离叫做梯形的高。
5、直角梯形:一腰垂直于底的梯形叫做直角梯形。
6、等腰梯形:两腰相等的梯形叫做等腰梯形。
7、等腰梯形性质定理1:等腰梯形在同一底上的两个角相等。
8、等腰梯形性质定理2:等腰梯形的两条对角线相等。
9、等腰梯形的判定定理l。:在同一个底上钩两个角相等的梯形是等腰梯形。
10、等腰梯形的判定定理2:对角线相等的梯形是等腰梯形。
研究等腰梯形常用的方法有:化为一个等腰三角形和一个平行四边形;或两个全等的直角三角形和一矩形;或作对角线的平行线交下底的延长线于一点;或延长两腰交于一点。
七、中位线
1、三角形的中位线连结三角形两边中点的线段叫做三角形的中位线。
说明:三角形的中位线与三角形的中线不同。
2、梯形的中位线:连结梯形两腰中点的线段叫做梯形中位线。
3、三角形中位线定理:三角形的中位线平行于第三边,并且等于第三边的一半。
4、梯形中位线定理:梯形中位线平行于两底,并且等于两底和的一半。
八、多边形的面积
说明:多边形的面积常用的求法有:
(1)将任意一个平面图形划分为若干部分再通过求部分的面积的和,求出原来图形的面积这种方法叫做分割法。如图3-l,作六边形的最长的一条对角线,从其它各顶点向这条对角线引垂线,把六边形分成四个直角三角形和两个直角梯形,计算它们的面积再相加。
(2)将一个平面图形的某一部分割下来移放在另一个适当的位置上,从而改变原来图形的形状。利用计算变形后的图形的面积来求原图形的面积的这种方法。叫做割补法。
(3)将一个平面图形通过拼补某一图形,使它变为另一个图形,利用新的图形减去所补充图形的面积,来求出原来图形面积的这种方法叫做拼凑法。
注意:两个图形全等,它们的面积相等。等底等高的三角面积相等。一个图形的面积等于它的各部分面积的和。
概率论知识点总结 第5篇
初三上册化学必背知识点
些物质的特性及用途:
1、可燃性的气体:H2、CO、CH4(甲烷)都可做燃料,点燃前都要验纯,与空气混合点燃会爆炸。
2、还原性的物质:C、H2、CO都可用来冶炼金属,将金属氧化物还原成金属单质。具有氧化性的物质:O2,CO2
3、助燃性物质:O2能使带火星木条复燃,或使燃着木条燃烧更旺。
4、有毒的气体:CO,能与血红蛋白结合使人中毒,煤气中毒就是指CO中毒。使澄清石灰水变浑浊气体:只有CO2
5、最轻气体:H2也是燃烧无污染的气体燃料
6、干冰(CO2固体):用于人工降雨,致冷剂;CO2气体:用于灭火,做温室肥料,制汽水等盐酸(HCl):用于除铁锈,是胃酸的主要成份,浓盐酸有挥发性(挥发出HCl气体)
7、石灰石(CaCO3):建筑材料,制水泥、高温煅烧制CaO;
8、生石灰CaO:易与水反应并放热,做食品干燥剂,可用来制取Ca(OH)2。
9、熟石灰Ca(OH)2:用于改良酸性土壤,配制波尔多液,与Na2CO3反应制取NaOH
化学与社会相关常识
三大化石燃料:煤(固)、石油(液)、天然气(气)
1、六大营养物质:糖类(主要供能物质,如:米、面、蔗糖、葡萄糖等)、
油脂、蛋白质(鱼、肉、蛋、奶、豆)、维生素(蔬菜、水果)、水、无机盐
2、缺乏某些元素导致的疾病:
缺钙:骨质疏松症(老年人)、佝偻病(儿童);
缺铁:贫血
缺碘:甲状腺肿大(大脖子病)
缺维生素A:夜盲症;缺维生素C:坏血病
3、合金:生铁和钢都是铁的合金,区别是含碳量不同,钢含碳量低,黄铜是Cu-Zn合金铁生锈条件:铁同时与空气(主要是O2)和水接触
4、防锈方法是:保持铁制品表面干燥和洁净,并在金属表面形成保护膜(涂油漆、涂油、镀其它金属等)。
5、可燃物燃烧条件:
⑴是可燃物;
⑵与空气(或O2)接触
⑶温度达到可燃物着火点
6、灭火的方法:
⑴隔离可燃物,如建立隔离带、釜底抽薪;
⑵隔绝空气(或O2),如用湿布、灯帽、土盖灭火焰,用CO2灭火
⑶降低温度至可燃物着火点以下,如用水灭火。
化学九年级上册知识点
1、构成物质的三种微粒是分子、原子、离子。
2、还原氧化铜常用的三种还原剂:氢气、一氧化碳、碳。
3、氢气作为燃料有三大优点:资源丰富、发热量高、燃烧后的产物是水不污染环境。
4、构成原子一般有三种微粒:质子、中子、电子。
5、构成物质的元素可分为三类即(1)金属元素、(2)非金属元素、(3)稀有气体元素。
6、铁的氧化物有三种,其化学式为(1)FeO、(2)Fe2O3、(3)Fe3O4。
7、化学方程式有三个意义:(1)表示什么物质参加反应,结果生成什么物质;(2)表示反应物、生成物各物质问的分子或原子的微粒数比;(3)表示各反应物、生成物之间的质量比
8、收集气体一般有三种方法:排水法、向上排空法、向下排空法。
9、通常使用的灭火器有三种:泡沫灭火器;干粉灭火器;液态二氧化碳灭火器。
10、CO2可以灭火的原因有三个:不能燃烧、不能支持燃烧、密度比空气大。
11、单质可分为三类:金属单质;非金属单质;稀有气体单质。
12、当今世界上最重要的三大矿物燃料是:煤、石油、天然气。
煤干馏(化学变化)的三种产物:焦炭、煤焦油、焦炉气
13、应记住的三种黑色氧化物是:氧化铜、二氧化锰、四氧化三铁。
14、氢气和碳单质有三个相似的化学性质:常温下的稳定性、可燃性、还原性。
15、教材中出现的三次淡蓝色:(1)液态氧气是淡蓝色(2)硫在空气中燃烧有微弱的淡蓝色火焰、(3)氢气在空气中燃烧有淡蓝色火焰。
16、三大气体污染物:SO2、CO、NO2
17、酒精灯的火焰分为三部分:外焰、内焰、焰心,其中外焰温度。
18、取用药品有“三不”原则:(1)不用手接触药品;(2)不把鼻子凑到容器口闻气体的气味;(3)不尝药品的味道。
19、可以直接加热的三种仪器:试管、坩埚、蒸发皿(另外还有燃烧匙)
20、质量守恒解释的原子三不变:种类不改变、数目不增减、质量不变化
21、与空气混合点燃可能爆炸的三种气体:H2、CO、CH4(实际为任何可燃性气体和粉
22、原子中的三等式:核电荷数=质子数=核外电子数=原子序数
初三化学基本概念复习方法
1、浓缩要点,强化记忆
记忆是理解的仓库,要准确理解概念,必须强化记忆。为了取得记忆效果,需要用自己的语言去精炼定义,浓缩要点。如,复习催化剂概念时,可以将其浓缩为“一变”和“二不变”。“一变”是指催化剂能改变其它物质的化学反应速率,“二不变”是指催化剂本身的质量和化学性质在化学反应前后不发生变化。浓缩、提炼概念的要点,不仅便于记忆,又能将要点准确“还原”为课本语言。
2、抓住关键,揭示规律
复习化学概念,尤其是一些比较抽象的概念,最重要的是搞清定义中关键字、词的真正含义,抓了这些,就是抓住了关键,也即复习到位。如复习“溶解度”概念时,应抓住四个关键要素:⑴一定温度下;⑵100g溶剂;⑶饱和状态;⑷溶质质量(单位为“g”)。四个要素缺一不可。又如,在复习“分子”概念时,在抓住“保持物质化学性质”和“一种粒子”这两个关键词的同时,还应揭示如下规律:⑴分子只能保持物质的化学性质,不能保持物质的物理性质;⑵同种分子化学性质相同,不同种分子化学性质不同;⑶分子可以再分,但分割后的粒子不再保持物质的化学性质。显然,在抓住关键中揭示规律,不仅有助于理解概念,更能有助于灵活应用概念去判断是非,解决问题。
3、注重比较,准确运用
理清相关概念之间的区别和联系是复习基本概念的重要环节,复习基本概念时,一般注意比较:⑴在音、形、义方面相近的概念,如化学变化与化学性质;⑵外延部分重合的概念,如氧化反应与化合反应;⑶对称的概念,如氧化反应与还原反应;⑷既有本质区别又有内在联系的概念,如原子与离子;⑸似同实异的概念,如饱和溶液与浓溶液。通过多种形式的比较,一方面可以辨析概念的内涵与外延,另一方面可以明确概念间差异与联系,以便准确运用。
概率论知识点总结 第6篇
在实际问题中,对于几何概型,我们通常不关注它取某个值的概率,而关心它落在某个区间的概率。
定义: 对于随机变量 X ∈ ( − ∞ , + ∞ ) , F ( x ) = P ( X ⩽ x ) X \in(-\infty,+\infty), F(x)=P(X \leqslant x) X∈(−∞,+∞),F(x)=P(X⩽x)
(该定义对随机变量类型不作约束)
推广: 对任意 − ∞ < a < b < + ∞ -\infty−∞<a<b<+∞, 总有 P ( a < x ≤ b ) = F ( b ) − F ( a ) P(aP(a<x≤b)=F(b)−F(a)
定理:对任意随机变量X,其分布函数在 x = x 0 x=x_0 x=x0 处连续的充分必要条件是: P ( x = x 0 ) = 0 P(x=x_0) = 0 P(x=x0)=0(因此离散型随机变量必然不连续)
对于随机变量X的分布函数F(x),若存在 f ( x ) f(x) f(x) 使得 : F ( x ) = ∫ − ∞ x f ( t ) d t , x ∈ ( − ∞ , + ∞ ) F(x)=\int_{-\infty}^{x} f(t) d t, x \in(-\infty,+\infty) F(x)=∫−∞xf(t)dt,x∈(−∞,+∞)
那么 f ( x ) f(x) f(x) 称为随机变量X的概率密度函数
判断一个函数是否可以表示概率密度函数的两原则:
(1) . f ( x ) ≥ 0 , x ∈ ( − ∞ , + ∞ ) f(x) \geq 0, x \in(-\infty,+\infty) f(x)≥0,x∈(−∞,+∞)
(2). ∫ − ∞ + ∞ f ( x ) d x = 1 \int_{-\infty}^{+\infty} f(x) d x=1 ∫−∞+∞f(x)dx=1
1). 分布函数 F ( x ) F(x) F(x) 是连续函数,且在概率密度函数 f ( x ) f(x) f(x) 的连续点处,有 F ′ ( x ) = F^{\prime}(x)= F′(x)= f ( x ) f(x) f(x)
2). 对任意常数 c ( − ∞ < c < + ∞ ) c(-\inftyc(−∞<c<+∞), 有 P ( X = c ) = 0 P(X=c)=0 P(X=c)=0
(注意:0概率事件不一定是不可能事件。比如公交车的到站时间是一个连续型随机变量,其中“2点整到站”是单个点,根据上述性质,它的概率等于0,但它并不是不可能事件,只是概率无穷小。由于人类测量精度的制约(不管是时间精度、距离精度等等),让此类事件看似很可能发生,但其实如果人类测量精度能够达到小数点后无穷位,那么例如“公交车2点整到站”此类事件几乎是不可能发生的,概率无穷小,接近于0。这是因为对于连续型随机变量,样本空间是无穷大的,所以单点概率只能无穷小)
3). 对任意的a、 b \mathrm{b} b, 有: P ( a < x ⩽ b ) = F ( b ) − F ( a ) = ∫ a b f ( x ) d x P(aP(a<x⩽b)=F(b)−F(a)=∫abf(x)dx
关于概率密度函数与概率的关系: P ( x < x ⩽ x + Δ x ) = F ( x + Δ x ) − F ( x ) ≈ f ( x ) ⋅ Δ x P(xP(x<x⩽x+Δx)=F(x+Δx)−F(x)≈f(x)⋅Δx
其中当 Δ x \Delta x Δx 无穷小时,约等号变为等号。概率密度函数与概率的关系犹如一根粗细不均的线的线密度与质量的关系:线上每一点都有对应的线密度,线的质量同这个密度值成正比,如果要求某段长度的质量,必须对这段长度上每一点的密度进行积分,反之,每一点的密度表示该点处质量变化的慢(导数)。
X ∼ R ( a , b ) : X X \sim R(a, b): X X∼R(a,b):X 服从区间 ( a , b ) (a, b) (a,b) 上的均匀分布
概率密度函数:
f ( x ) = { 0 , x ⩽ a c , a < x < b 0 , x ⩾ b f(x)=\left\{\begin{array}{ll} 0, & x \leqslant a \\ c & , af(x)=⎩⎨⎧0,c0x⩽a,a<x<b,x⩾b
其中,根据 f ( x ) f(x) f(x) 在( − ∞ -\infty −∞, + ∞ ) +\infty) +∞) 定积分 ( ( ( 面积 ) ) ) 为1可得: c = 1 b − a c=\frac{1}{b-a} c=b−a1
图像:
分布函数:
F ( x ) = { 0 x < a x − a b − a a ≤ x < b 1 x ≥ b F(x)=\left\{\begin{array}{cc} 0 & xF(x)=⎩⎨⎧0b−ax−a1x<aa≤x<bx≥b
图像:
X ∼ E ( λ ) ( λ > 0 ) : X X \sim E(\lambda)(\lambda>0): X X∼E(λ)(λ>0):X 服从参数为 λ \lambda λ 的指数分布
概率密度函数:
f ( x ) = { λ e − λ x , x > 0 0 , x ⩽ 0 f(x)=\left\{\begin{array}{cl}\lambda e^{-\lambda x} & , x>0 \\ 0 & , x \leqslant 0\end{array}\right. f(x)={λe−λx0,x>0,x⩽0
图像:
分布函数: f ( x ) = { λ e − λ x , x > 0 0 , x ⩽ 0 f(x)=\left\{\begin{array}{cl} \lambda e^{-\lambda x} & , x>0 \\ 0 & , x \leqslant 0 \end{array}\right. f(x)={λe−λx0,x>0,x⩽0 图像:
指数分布一般用来表示独立随机事件发生的时间间隔,比如乘客进入汽车站的时间间隔、自然灾害发生的时间间隔、机器的寿命(即正常机器到损坏的时间间隔,但这里只限于短时间内,因为长时间使用的机器有记忆性)。泊松过程中第k次事件和k+1次事件发生的时间间隔服从指数分布。
指数分布具有无记忆性, 即:
P ( T > s + t ∣ T > t ) = P ( T > s ) P(T>s+t \mid T>t)=P(T>s) P(T>s+t∣T>t)=P(T>s) for all s , t ≥ 0 s, t \geq 0 s,t≥0
泊松分布、几何分布也具有无记忆性,比如几何分布可以用来解释“奢徒心 理_:连输10把的情况下, 奢徒认为第11把贏的概率会很大, 但事实是, 如 果用 X X X 表示第几把会贏,那么 P ( X = 11 ∣ X > 10 ) = P ( X = 1 ) P(X=11 \mid X>10)=P(X=1) P(X=11∣X>10)=P(X=1)
世间万物最主要服从的分布是正态分布
X ∼ N ( μ , σ 2 ) : X X \sim N\left(\mu, \sigma^{2}\right): X X∼N(μ,σ2):X 服从均值为 μ \mu μ, 方差为 σ 2 \sigma^{2} σ2 的正态分布
概率密度函数: f ( x ) = 1 σ 2 π e − ( x − μ ) 2 2 σ 2 f(x)=\frac{1}{\sigma \sqrt{2 \pi}} e^{-\frac{(x-\mu)^{2}}{2 \sigma^{2}}} f(x)=σ2π1e−2σ2(x−μ)2
分布函数的表达式一般不常用,图像是:
特征:
1). x = μ x=\mu x=μ 时, 有 f ( x ) max = 1 σ 2 π f(x)_{\max }=\frac{1}{\sigma \sqrt{2 \pi}} f(x)max=σ2π1
2). μ \mu μ 决定图像的左右位置, σ 2 \sigma^{2} σ2 决定图像的高矮。方差 σ 2 \sigma^{2} σ2 越大,分布越离 散,曲线越平坦; 方差 σ 2 \sigma^{2} σ2 越小,分布越集中,曲线越陡肖。
标准正态分布:
当 μ = 0 , σ 2 = 1 \mu=0, \sigma^{2}=1 μ=0,σ2=1 时
概率密度函数: φ ( x ) = 1 2 π ⋅ e − x 2 2 \varphi(x)=\frac{1}{\sqrt{2 \pi}} \cdot e^{-\frac{x^{2}}{2}} φ(x)=2π1⋅e−2x2
分布函数: ϕ ( x ) = ∫ − ∞ x φ ( t ) d t , − ∞ < x < + ∞ \phi(x)=\int_{-\infty}^{x} \varphi(t) d t,-\inftyϕ(x)=∫−∞xφ(t)dt,−∞<x<+∞
用途:对于标准正态分布,已知 ϕ ( x ) \phi(x) ϕ(x) 时可以查阅标准正态分布函数表得出 x x x (反之亦可) 。即,如下图中,已知 p p p (概率),便可得出u p _{p} p (分位数) , 使满足: ϕ ( u p ) = ∫ − ∞ u p φ ( x ) d x = p ( X ⩽ u p ) = p \phi\left(u_{p}\right)=\int_{-\infty}^{u_{p}} \varphi(x) d x=p\left(X \leqslant u_{p}\right)=p ϕ(up)=∫−∞upφ(x)dx=p(X⩽up)=p
正态分布和标准正态分布的计算转化:
已知 X ∼ N ( μ , σ 2 ) X \sim N\left(\mu, \sigma^{2}\right) X∼N(μ,σ2), 那么:
P ( X ⩽ a ) = ϕ ( a − μ σ ) P(X \leqslant a)=\phi\left(\frac{a-\mu}{\sigma}\right) P(X⩽a)=ϕ(σa−μ), 即 P ( X > a ) = 1 − ϕ ( a − μ σ ) P(X>a)=1-\phi\left(\frac{a-\mu}{\sigma}\right) P(X>a)=1−ϕ(σa−μ)
因此: P ( a < X ⩽ b ) = ϕ ( b − μ σ ) − ϕ ( a − μ σ ) P(aP(a<X⩽b)=ϕ(σb−μ)−ϕ(σa−μ) ,可用来方便地求解非标准正态分布的概率计算问题
对于二维随机变量 ( X , Y ) (X, Y) (X,Y) 的联合分布函数为 : F ( x , y ) = P ( X ⩽ x , Y ⩽ y ) , − ∞ < x , y < + ∞ F(x, y)=P(X \leqslant x, Y \leqslant y),-\inftyF(x,y)=P(X⩽x,Y⩽y),−∞<x,y<+∞
计算方法:
如下图, F ( x , y ) = P ( ( X , Y ) ∈ D x y ) = ∫ − ∞ x ∫ − ∞ y f ( x , y ) d x d y F(x, y)=P((X, Y) \in D x y)=\int_{-\infty}^{x} \int_{-\infty}^{y} f(x, y) d x d y F(x,y)=P((X,Y)∈Dxy)=∫−∞x∫−∞yf(x,y)dxdy
性质:
1). 0 ⩽ F ( x , y ) ⩽ 1 0 \leqslant F(x, y) \leqslant 1 0⩽F(x,y)⩽1
2). F ( x , y ) F(x, y) F(x,y) 关于 x x x 或 y y y 单调不减
3). F ( x , y ) F(x, y) F(x,y) 关于 x x x 或 y y y 右连续
4). lim x , y → − ∞ F ( x , y ) = 0 lim x , y → + ∞ F ( x , y ) = 1 \lim _{x, y \rightarrow-\infty} F(x, y)=0 \quad \lim _{x, y \rightarrow+\infty} F(x, y)=1 limx,y→−∞F(x,y)=0limx,y→+∞F(x,y)=1
5). ∀ x 1 < x 2 , y 1 < y 2 : \forall x_{1}∀x1<x2,y1<y2: P ( x 1 < X ⩽ x 2 , y 1 < Y ⩽ y 2 ) P\left(x_{1}P(x1<X⩽x2,y1<Y⩽y2) = F ( x 2 , y 2 ) − F ( x 1 , y 2 ) − F ( x 2 , y 1 ) + F ( x 1 , y 1 ) =F\left(x_{2}, y_{2}\right)-F\left(x_{1}, y_{2}\right)-F\left(x_{2}, y_{1}\right)+F\left(x_{1}, y_{1}\right) =F(x2,y2)−F(x1,y2)−F(x2,y1)+F(x1,y1)
若 f ( x , y ) f(x, y) f(x,y) 满足:
1). f ( x , y ) ⩾ 0 f(x, y) \geqslant 0 f(x,y)⩾0
2). F ( x , y ) = ∫ − ∞ x ∫ − ∞ y f ( u , v ) d u d v , − ∞ < x , y < + ∞ F(x, y)=\int_{-\infty}^{x} \int_{-\infty}^{y} f(u, v) d u d v,-\inftyF(x,y)=∫−∞x∫−∞yf(u,v)dudv,−∞<x,y<+∞
3). ∫ − ∞ + ∞ ∫ − ∞ + ∞ f ( x , y ) d x d y = 1 \int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} f(x, y) d x d y=1 ∫−∞+∞∫−∞+∞f(x,y)dxdy=1
那么 f ( x , y ) f(x, y) f(x,y) 是二维随机变量 ( X , Y ) (X, Y) (X,Y) 的联合概率密度函数
性质:
1). F ( x , y ) F(x, y) F(x,y) 连续, 且在 f ( x , y ) f(x, y) f(x,y) 的连续点处有: ∂ 2 F ( x , y ) ∂ x ∂ y = f ( x , y ) \frac{\partial^{2} F(x, y)}{\partial x \partial y}=f(x, y) ∂x∂y∂2F(x,y)=f(x,y)
2). 对于平面内任意一曲线L: P ( ( X , Y ) ∈ L ) = 0 P((X, Y) \in L)=0 P((X,Y)∈L)=0
3). 对于平面内任意一集合D: P ( ( X , Y ) ∈ D ) = ∬ D f ( x , y ) d x d y P((X, Y) \in D)=\iint_{D} f(x, y) d x d y P((X,Y)∈D)=∬Df(x,y)dxdy
概率论知识点总结 第7篇
1、蛋白质的基本单位_氨基酸,其基本组成元素是C、H、O、N
2、氨基酸的结构通式:R肽键:—NH—CO—
NH2—C—COOH
3、肽键数=脱去的水分子数=_氨基酸数—肽链数
4、多肽分子量=氨基酸分子量x氨基酸数—x水分子数18
5、核酸种类DNA:和RNA;基本组成元素:C、H、O、N、P
6、DNA的基本组成单位:脱氧核苷酸;RNA的基本组成单位:核糖核苷酸
7、核苷酸的组成包括:1分子磷酸、1分子五碳糖、1分子含氮碱基。
8、DNA主要存在于中细胞核,含有的碱基为A、G、C、T;
RNA主要存在于中细胞质,含有的碱基为A、G、C、U;
9、细胞的主要能源物质是糖类,直接能源物质是ATP。
10、葡萄糖、果糖、核糖属于单糖;
蔗糖、麦芽糖、乳糖属于二糖;
淀粉、纤维素、糖原属于多糖。
11、脂质包括:脂肪、磷脂和固醇。
12、大量元素:C、H、O、N、P、S、K、Ca、Mg(9种)
微量元素:Fe、Mn、B、Zn、Cu、Mo(6种)
基本元素:C、H、O、N(4种)
最基本元素:C(1种)
主要元素:C、H、O、N、P、S(6种)
13、水在细胞中存在形式:自由水、结合水。
14、细胞中含有最多的化合物:水。
15、血红蛋白中的无机盐是:Fe2+,叶绿素中的无机盐是:Mg2+
16、被多数学者接受的细胞膜模型叫流动镶嵌模型
17、细胞膜的成分:蛋白质、脂质和少量糖类。细胞膜的基本骨架是磷脂双分子层。
18、细胞膜的结构特点是:具有流动性;功能特点是:具有选择透过性。
概率论知识点总结 第8篇
一个随机试验,每一个可能出现的结果称为一个样本点,全体样本点组成的集合称为样本空间(Ω)
例:抛一枚均匀硬币2次,正反面结果样本空间Ω={正正、正反、反正、反反}
只有一个样本点的事件称为基本事件
A ⊂ B \mathrm{A} \subset \mathrm{B} A⊂B:事件A包含于事件B中
A = B \mathrm{A}=\mathrm{B} A=B:事件A与事件B相等
A ∪ B \mathrm{A} \cup \mathrm{B} A∪B:和事件,表示事件A、事件B至少有一个发生
A ∩ B \mathrm{A} \cap \mathrm{B} A∩B :积事件,表示事件A、事件B同时发生
A − B \mathrm{A}-\mathrm{B} A−B:差事件,表示仅A发生B不发生
A ∩ B = ϕ A \cap B=\phi A∩B=ϕ:事件A、事件B同时发生的事件集合为空集,表示A、B为互斥事件,不会同时发生
因为事件 A ˉ ∩ A = ϕ , A ˉ ∪ B = Ω \bar{A} \cap \mathrm{A}=\phi, \bar{A} \cup \mathrm{B}=\Omega Aˉ∩A=ϕ,Aˉ∪B=Ω,故 A ˉ \bar{A} Aˉ、 A A A互为对立事件(两事件互斥且他们共同组成全体样本空间)
P ( A B ) = P ( A ) ⋅ P ( B ) P(A B)=P(A) \cdot P(B) P(AB)=P(A)⋅P(B),两事件发生的概率互不影响,此时 P ( A ∣ B ) = P ( A ) P(A \mid B)=P(A) P(A∣B)=P(A),事件 B B B的发生不影响 A A A的发生(反之亦然)
注意区别
互斥事件:事件A、B不可能同时发生
独立事件:事件A的发生对事件B的发生没有影响(A、B必定可以同时发生)
B B B发生的条件下 A A A发生的概率:
P ( A ∣ B ) = P ( A ⋅ B ) P ( B ) P(A \mid B)=\frac{P(A \cdot B)}{P(B)} P(A∣B)=P(B)P(A⋅B)
变换:
P ( A B ) = P ( A ∣ B ) ⋅ P ( B ) P(A B)=P(A \mid B) \cdot P(B) P(AB)=P(A∣B)⋅P(B)
应用条件概率公式的前提条件:A、B并非相互独立事件,事件B发生之后事件A发生的概率会受到影响, P ( A ∣ B ) 可能大于 P ( A ) 也可能小于 P ( A ) 。尚若 A , B 相互独立,则 P ( A B ) = P ( A ) ⋅ P ( B ) , 因 为此时P ( A ∣ B ) = P ( A ) 。 \begin{array}{l} \text { 应用条件概率公式的前提条件:A、B并非相互独立事件,事件B发生之后事件A发生的概率会受到影响, }\\ \mathrm{P}(\mathrm{A} \mid \mathrm{B}) \text { 可能大于 } \mathrm{P}(\mathrm{A}) \text { 也可能小于 } \mathrm{P}(\mathrm{A}) \text { 。尚若 } \mathrm{A}, \mathrm{B} \text { 相互独立,则 } \mathrm{P}(\mathrm{AB})=\mathrm{P}(\mathrm{A}) \cdot \mathrm{P}(\mathrm{B}), \text { 因 }\\ \text { 为此时P }(\mathrm{A} \mid \mathrm{B})=\mathrm{P}(\mathrm{A}) \text { 。 } \end{array} 应用条件概率公式的前提条件:A、B并非相互独立事件,事件B发生之后事件A发生的概率会受到影响, P(A∣B)可能大于P(A)也可能小于P(A)。尚若A,B相互独立,则P(AB)=P(A)⋅P(B),因为此时P (A∣B)=P(A)。
推广到三事件: P ( A B C ) = P ( C ∣ A B ) ⋅ P ( B ∣ A ) ⋅ P ( A ) P(A B C)=P(C \mid A B) \cdot P(B \mid A) \cdot P(A) P(ABC)=P(C∣AB)⋅P(B∣A)⋅P(A)
满足:
1). 样本点总数有限
2). 每个基本事件可能性相同
此时:
P ( A ) = n A n P(A)=\frac{n_{A}}{n} P(A)=nnA
几何概型:相当于样本点总数无限的“古典概型”
如果一个样本空间 S S S 被 B 1 , B 2 , B 3 , … … , B n B_{1}, B_{2}, B_{3}, \ldots \ldots, B_{n} B1,B2,B3,……,Bn 这样的完备事件组划分,则: P ( A ) = P ( A B 1 ) + P ( A B 2 ) + ⋯ + P ( A B n ) P(A)=P\left(A B_{1}\right)+P\left(A B_{2}\right)+\cdots+P\left(A B_{n}\right) P(A)=P(AB1)+P(AB2)+⋯+P(ABn) = P ( A ∣ B 1 ) ⋅ P ( B 1 ) + P ( A ∣ B 2 ) ⋅ P ( B 2 ) + ⋯ + P ( A ∣ B n ) ⋅ P ( B n ) \quad=P\left(A \mid B_{1}\right) \cdot P\left(B_{1}\right)+P\left(A \mid B_{2}\right) \cdot P\left(B_{2}\right)+\cdots+P\left(A \mid B_{n}\right) \cdot P\left(B_{n}\right) =P(A∣B1)⋅P(B1)+P(A∣B2)⋅P(B2)+⋯+P(A∣Bn)⋅P(Bn)
但实际情况有时候需要逆推模型,比如已知甲、乙、丙工厂各自的生产总数和次品率,现在我们拿到某件商品是次品,我们想要推测它更可能是哪个工厂生产的,这就要用到下面的贝叶斯公式
起源:
在托马斯·贝叶斯提出该公式之前,人们只能够计算“正向概率”,比如已知袋中黑白球比例,假设随机摸一个球出来,计算它是黑球或白球的概率。但现实情况往往是相反的,因为现实世界是不确定的,我们一般只能观测到事物的表面现象,往往是“不知道袋子里黑白球的比例”,而要根据“摸出来的球的观测颜色”来推断“袋子里球”的情况,这个时候,我们就要根据观测数据Data,提出多个假设hypothesis,然后分别计算每个假设的可能性P(h|D),最后取可能性最大的那个假设即可,这就是贝叶斯定理的核心思想。后来,贝叶斯方法席卷了概率论,并将应用延伸到各个问题领域,所有需要作出概率预测的地方都可以见到贝叶斯方法的影子,特别地,贝叶斯是机器学习的核心方法之一。
贝叶斯公式: P ( B i ∣ A ) = P ( B i A ) P ( A ) = P ( A ∣ B i ) ⋅ P ( B i ) ∑ j = 1 n P ( A ∣ B j ) ⋅ P ( B j ) P(B i \mid A)=\frac{P(B i A)}{P(A)}=\frac{P(A \mid B i) \cdot P(B i)}{\sum_{j=1}^{n} P\left(A \mid B_{j}\right) \cdot P(B j)} P(Bi∣A)=P(A)P(BiA)=∑j=1nP(A∣Bj)⋅P(Bj)P(A∣Bi)⋅P(Bi) 便于理解的形式: P ( h ∣ D ) = P ( D ∣ h ) ⋅ P ( h ) P ( D ) \quad P(h \mid D)=\frac{P(D \mid h) \cdot P(h)}{P(D)} P(h∣D)=P(D)P(D∣h)⋅P(h) (h代表 hypothesis,即假设;D代表Data,即观测数据)
P(h|D):h的后验概率
P(D):D的先验概率
P(h):h的先验概率
P(D|h):D的似然性(h发生时D发生的可能性)
应用:
贝叶斯定理应用广泛,这里举一个“拼写纠正”的例子。
概率论知识点总结 第9篇
生物圈中有哪些绿色植物
生物圈中的绿色植物有50余万种。可以分为四大类群:藻类、苔藓、蕨类和种子植物。
一、藻类、苔藓和蕨类植物
1、藻类植物
①生活环境:大多生活在淡水或海水中,还有一些生活在陆地上潮湿的地方。
②结构特点:藻类植物没有根、茎、叶等器官的分化。
2、苔藓植物:
①生活环境:苔藓植物大多生活在陆地上的潮湿环境中。
②结构特点:苔藓植物一般都很矮小,通常具有类似茎和叶的分化,但茎中没有导管,叶中也没有叶脉,根非常简单,称为假根。
③作用:许多苔藓植物的叶只有一层细胞,二氧化硫等有毒气体可以从背腹两面侵入细胞,从而威胁它的生存。人们利用苔藓植物的这个特点,把它当作监测空气污染程度的指示植物。
3、蕨类植物
①生活环境:森林和山野的阴湿处
②结构特点:有根、茎、叶的分化,在这些器官中有专门运输物质的通道——输导组织。
③繁殖:蕨类植物靠孢子繁殖,孢子是一种生殖细胞。
④作用:古代蕨类植物的遗体经过漫长的年代,复杂的变化,就逐渐变成了煤。
二、种子植物
1、种子的结构:种子的表面有一层种皮,种皮可以保护里面幼嫩的胚。胚是新植物的.幼体,由胚芽、胚轴、胚根和子叶组成。
①菜豆种子(P81图3-10):种皮、胚(胚芽、胚轴、胚根、子叶[2片])
②玉米种子(P81图3-10):果皮和种皮、胚(胚芽、胚轴、胚根、子叶[1片])、胚乳
2、种子植物:能结种子的植物称为种子植物。种子植物包括两大类群:裸子植物和被子植物。
①裸子植物:油松、侧柏、苏铁的种子是裸露着的,这样的植物称为裸子植物。
②被子植物:豌豆、荔枝、木瓜必须拨开果实才能看到种子,像这样,种子外面有果皮包被着的植物称为被子植物。被子植物是陆地上分布最为广泛的植物家族。
3、种子植物比苔藓、蕨类更适应陆地的生活,其中一个重要的原因是能产生种子。
4、记住常见的裸子植物和被子植物()
概率论知识点总结 第10篇
2012考研数学概率论复习必备知识点
重点内容是:事件的关系:包含,相等,互斥,对立,完全事件组,独立;事件的运算:并,交,差;运算规律:交换律,结合律,分配律,对偶律;概率的基本性质及五大公式:加法公式、减法公式、乘法公式、全概率公式、贝叶斯公式;利用独立性进行概率计算,伯努力试验计算。
近几年单独考查本章的考题相对较少,但是大多数考题中将本章的内容作为基础知识来考核。
第二章 随机变量及其分布
本章的主要内容是:随机变量及其分布函数的概念和性质,分布律和概率密度,随机变量的函数的分布,一些常见的分布:0-1分布、二项分布、超几何分布、泊松分布、均匀分布、正态分布、指数分布及它们的应用。而重点要求会计算与随机变量相联系的事件的概率,用泊松分布近似表示二项分布,以及随机变量简单函数的概率分布。
近几年单独考核本章内容不太多,主要考一些常见分布及其应用、随机变量函数的分布。
第三章 二维随机变量及其分布
本章是概率论重点部分之一,尤其是二维随机变量及其分布的概念和性质,边缘分布,边缘密度,条件分布和条件密度,随机变量的独立性及不相关性,一些常见分布:二维均匀分布,二维正态分布,几个随机变量的简单函数的分布。
第四章 随机变量的数字特征
本章内容是:随机变量的数字特征:数学期望、方差、标准差、矩、协方差、相关系数,常见分布的数字特征。而重点是利用数字特征的基本性质计算具体分布的数字特征,根据一维和二维随机变量的.概率分布求其函数的数学期望。
第五章 大数定律和中心极限定理
本章内容包括三个大数定律:切比雪夫定律、伯努利大数定律、辛钦大数定律,以及两个中心极限定理:棣莫弗――拉普拉斯定理、列维――林德伯格定理。
本章的内容不是重点,也不经常考,只要把这些定律、定理的条件与结论记住就可以了。
常见题型有
1.估计概率的值
2.与中心极限定理相关的命题
第六章 数理统计的基本概念
数理统计的基本概念主要是总体、简单随机样本、统计量、样本均值、样本方差及样本矩。重点是正态总体的抽样分布,包括样本均值、样本方差、样本矩、两个样本的均值差、两个样本方差比的抽样分布。这会涉及标准正态分布、分布、分布和 分布,要掌握这些分布对应随机变量的典型模式及它们参数的确定,这些分布的分位数和相应的数值表。
本章是数理统计的基础,也是重点之一。
1.样本容量的计算
2.分位数的求解或判定
4.总体或统计量的分布函数的求解或判定或证明
5.求总体或统计量的数字特征
第七章 参数估计
本章的主要内容是参数的点估计、估计量与估计值的概念、一阶或二阶矩估计和最大似然估计法、未知参数的置信区间、单个正态总体均值和方差的置信区间、两个总体的均值差和方差比的置信区间。而重点是矩估计法和最大似然估计法,有时要求验证所得估计量的无偏性。
常见题型有
1.统计量的无偏性、一致性或有效性
2.参数的矩估计量或矩估计值或估计量的数字特征
3.参数的最大似然估量或估计量或估计量的数字特征
4.求单个正态总体均值的置信区间
概率论知识点总结 第11篇
数学期望(Expectation)是试验中每次可能的结果乘以其概率的总和,也就是是该随机变量输出值的加权平均。它的意义是,一个随机试验在同样的机会下重复多次,所有可能状态平均的结果,便基本上等同“期望值”所期望的数。大数定律规定,随着重复次数接近无穷大,结果数值的算术平均值一定收敛于期望值。
1). 对于离散型随机变量: E ( X ) = ∑ i a i p i E(X)=\sum_{i} a_{i }p_{i} E(X)=i∑aipi 2). 对于连续型随机变量: E ( X ) = ∫ − ∞ + ∞ x f ( x ) d x E(X)=\int_{-\infty}^{+\infty} x f(x) d x E(X)=∫−∞+∞xf(x)dx 3). 常用分布的期望和方差
离散型:
连续型:
X ∼ R ( a , b ) X \sim R(a, b) X∼R(a,b)(均匀分布): E ( X ) = a + b 2 E(X)=\frac{a+b}{2} E(X)=2a+b D ( X ) = ( b − a ) 2 12 D(X) = \frac{(b-a)^2}{12} D(X)=12(b−a)2
X ∼ E ( λ ) X \sim E(\lambda) X∼E(λ)(指数分布): E ( X ) = 1 λ E(X)=\frac{1}{\lambda} E(X)=λ1 D ( X ) = 1 λ 2 D(X) = \frac{1}{\lambda^2} D(X)=λ21
X ∼ N ( μ , σ 2 ) X \sim N\left(\mu, \sigma^{2}\right) X∼N(μ,σ2)(正态分布): E ( X ) = μ E(X)=\mu E(X)=μ D ( X ) = λ 2 D(X) = \lambda^2 D(X)=λ2
3). 二维随机变量的期望
(1). 对于离散型随机变量 ( X , Y ) (X,Y) (X,Y),已知 P ( X = a i , Y = b j ) = p i j i , j = 1 , 2 , . . . P\left(X=a_{i}, Y=b_j\right)=p_{i j} \quad i, j=1,2,... P(X=ai,Y=bj)=piji,j=1,2,...
若 Z = g ( X , Y ) Z=g(X,Y) Z=g(X,Y)是 X 、 Y X、Y X、Y的函数,则:
E ( Z ) = ∑ i , j g ( a i , b j ) ⋅ p i j E(Z)=\sum_{i,j} g\left(a_{i}, b_{j}\right) \cdot p_{ij} E(Z)=∑i,jg(ai,bj)⋅pij
(2). 对于连续型随机变量 ( X , Y ) (X,Y) (X,Y),已知 f ( x , y ) f(x,y) f(x,y)为它的联合概率密度函数
若 Z = g ( X , Y ) Z=g(X,Y) Z=g(X,Y)是 X 、 Y X、Y X、Y的函数,则:
E ( Z ) = ∫ − ∞ + ∞ ∫ − ∞ + ∞ g ( x , y ) f ( x , y ) d x d y E(Z)=\int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} g(x, y) f(x, y) d x d y E(Z)=∫−∞+∞∫−∞+∞g(x,y)f(x,y)dxdy
4). 期望的性质
(1). 假设 k , l , c k,l,c k,l,c都是常数,则:
E ( k ⋅ X + l ⋅ Y + c ) = k ⋅ E ( X ) + l ⋅ E ( Y ) + c E(k \cdot X+l \cdot Y+c)=k \cdot E(X)+l \cdot E(Y)+c E(k⋅X+l⋅Y+c)=k⋅E(X)+l⋅E(Y)+c
(2). 当 ( X , Y ) (X,Y) (X,Y)相互独立时:
E ( X Y ) = E ( X ) ⋅ E ( Y ) E(X Y)=E(X) \cdot E(Y) E(XY)=E(X)⋅E(Y)
协方差(Covariance)用于衡量两个随机变量的联合变化程度。如果变量X的较大值主要与另一个变量Y的较大值相对应,而两者的较小值也相对应,那么两个变量为正相关,协方差为正,反之协方差为负。也就是说协方差的正负符号反映两变量的相关性。而协方差的数值大小因取决于具体变量的大小。
定义和计算:
cov ( X , Y ) = E { [ X − E ( X ) ] [ Y − E ( Y ) ] } = E ( X Y ) − E ( X ) E ( Y ) \operatorname{cov}(X, Y)=E\{[X-E(X)][Y-E(Y)]\}=E(X Y)-E(X)E(Y) cov(X,Y)=E{[X−E(X)][Y−E(Y)]}=E(XY)−E(X)E(Y)
方差(Deviation Var)用来描述一个随机变量的离散程度,是随机变量中每个值与随机变量平均值之差的平方的平均值,相当于两个相同随机变量之间的协方差。
定义和计算:
D ( X ) = cov ( X , X ) = E { [ X − E ( X ) ] 2 } = E ( X 2 ) − E 2 ( X ) D(X)=\operatorname{cov}(X, X)=E\left\{[X-E(X)]^{2}\right\}=E\left(X^{2}\right)-E^{2}(X) D(X)=cov(X,X)=E{[X−E(X)]2}=E(X2)−E2(X)
协方差和方差的一些性质:(假设 a 、 b 、 c a、b、c a、b、c为常数)
1). D ( a X ± b Y ) = a 2 D ( X ) + b 2 D ( Y ) ± 2 a b ⋅ cov ( X , Y ) D(a X \pm b Y)=a^{2} D(X)+b^{2}D(Y) \pm 2 a b\cdot{\operatorname{cov}}(X, Y) D(aX±bY)=a2D(X)+b2D(Y)±2ab⋅cov(X,Y)
2). 当 X 、 Y X、Y X、Y相互独立时: cov ( X , Y ) = 0 \operatorname{cov}(X, Y)=0 cov(X,Y)=0(反之不一定成立)
3). cov ( X , c ) = 0 \operatorname{cov}(X, c)=0 cov(X,c)=0
4). cov ( a X , b Y ) = a b ⋅ cov ( X , Y ) \operatorname{cov}(aX, bY)=ab\cdot\operatorname{cov}(X, Y) cov(aX,bY)=ab⋅cov(X,Y)
5). cov ( X 1 + X 2 , Y 1 + Y 2 ) = cov ( X 1 , Y 1 ) + cov ( X 1 , Y 2 ) + cov ( X 2 , Y 1 ) + cov ( X 2 , Y 2 ) \operatorname{cov}\left(X_{1}+X_{2}, Y_{1}+Y_{2}\right)=\operatorname{cov}\left(X_{1}, Y_{1}\right) + \operatorname{cov}\left(X_{1}, Y_{2}\right)+\operatorname{cov}\left(X_{2}, Y_{1}\right)+\operatorname{cov}\left(X_{2}, Y_{2}\right) cov(X1+X2,Y1+Y2)=cov(X1,Y1)+cov(X1,Y2)+cov(X2,Y1)+cov(X2,Y2)
6). D ( a X ± b Y ± c ) = a 2 D ( X ) + b 2 D ( Y ) ± 2 a b ⋅ cov ( X , Y ) D(a X \pm b Y \pm c)=a^{2} D(X)+b^{2} D(Y) \pm 2 a b \cdot \operatorname{cov}(X, Y) D(aX±bY±c)=a2D(X)+b2D(Y)±2ab⋅cov(X,Y)
离散型:
连续型:
皮尔森相关系数(Pearson product-moment correlation coefficient)用于度量两个变量X和Y之间的线性相关程度,其值介于-1与1之间。它的定义式: ρ ( X , Y ) = cov ( X , Y ) D ( X ) ⋅ D ( Y ) \rho(X, Y)=\frac{\operatorname{cov}(X, Y)}{\sqrt{D(X) \cdot D(Y)}} ρ(X,Y)=D(X)⋅D(Y)cov(X,Y) 当它的值 ρ ( X , Y ) = ± 1 \rho(X,Y)=\pm 1 ρ(X,Y)=±1时,说明变量X、Y呈线性关系(1为正相关,-1为负相关),且线性相关程度随着 ∣ ρ ( X , Y ) ∣ |\rho(X,Y)| ∣ρ(X,Y)∣减小而减小,当 ρ ( X , Y ) = 0 \rho(X,Y)=0 ρ(X,Y)=0时,X、Y线性无关,此时: E ( X Y ) = E ( X ) ⋅ E ( Y ) E(X Y)=E(X) \cdot E(Y) E(XY)=E(X)⋅E(Y), D ( X Y ) = D ( X ) ± D ( Y ) D\left(X Y\right)=D(X) \pm D(Y) D(XY)=D(X)±D(Y)
皮尔森相关系数表示的意义意义如下图,这是几组(X, Y)的点集,以及各个点集中X和Y之间的相关系数。我们可以发现相关系数反映的是变量之间的线性关系和相关性的方向(第一排),而不是线性相关的斜率(中间),也不是各种非线性关系(第三排)。注意:中间的图中斜率为0,但相关系数是没有意义的,因为此时变量Y是0
性质:
(1). 若 X , Y X,Y X,Y满足 Y = a X + b Y=aX+b Y=aX+b,则 ρ = a ∣ a ∣ \rho=\frac{a}{|a|} ρ=∣a∣a
(2). ∣ ρ ( X , Y ) ∣ ≤ 1 |\rho(X,Y)|\le1 ∣ρ(X,Y)∣≤1
(3). ∣ ρ ( X , Y ) ∣ = 1 |\rho(X,Y)|=1 ∣ρ(X,Y)∣=1的充要条件是:存在不为0的常数 a 、 b a、b a、b使得 P ( Y = a X + b ) = 1 P(Y=aX+b)=1 P(Y=aX+b)=1
(4). 当 X 、 Y X、Y X、Y相互独立时, X 、 Y X、Y X、Y必定不相关,此时 ρ ( X , Y ) = 0 \rho(X, Y)=0 ρ(X,Y)=0。反之不成立,但它的逆否命题成立:当 X 、 Y X、Y X、Y相关时, X 、 Y X、Y X、Y一定不独立, ρ ( X , Y ) ≠ 0 \rho(X, Y)\ne0 ρ(X,Y)=0
概率论知识点总结 第12篇
设 X 1 , ⋯ , X n , ⋯ X_{1}, \cdots, X_{n}, \cdots X1,⋯,Xn,⋯ 是随机变量序列, 如果存在 一个常数 c c c, 使得对任意一个 ε > 0 \varepsilon>0 ε>0, 总有 lim n → ∞ P ( ∣ X n − c ∣ < ε ) = 1 \lim _{n \rightarrow \infty} P\left(\left|X_{n}-c\right|<\varepsilon\right)=1 n→∞limP(∣Xn−c∣<ε)=1 那么称序列 { X n ∣ n = 1 , 2 , 3 , ⋯ } \left\{X_{n} \mid n=1,2,3, \cdots\right\} {Xn∣n=1,2,3,⋯} 依概率收敘于 c c c, 记作 X n ⟶ P c X_{n} \stackrel{P}{\longrightarrow} c Xn⟶Pc 或等价地 lim n → ∞ P ( ∣ X n − c ∣ ≥ ε ) = 0. \lim _{n \rightarrow \infty} P\left(\left|X_{n}-c\right| \geq \varepsilon\right)=0 . n→∞limP(∣Xn−c∣≥ε)=0.
大数定律是用来描述独立同分布下趋近无穷多次数重复实验的结果的定律。大数定律指出,在试验条件不变时,重复试验多次,随机事件的频率就近似于它的概率,也即偶然中包含着某种必然。根据大数定律,当样本数量趋于无穷大,其算术平均值就会无限接近期望值。
设 X 1 , ⋯ , X n , ⋯ X_{1}, \cdots, X_{n}, \cdots X1,⋯,Xn,⋯ 是独立同分布的随机变量序列, 并且 E ( X 1 ) = μ , D ( X 1 ) = σ 2 E\left(X_{1}\right)=\mu, D\left(X_{1}\right)=\sigma^{2} E(X1)=μ,D(X1)=σ2, 则 X ˉ ≜ 1 n ∑ i = 1 n X i ⟶ P μ \bar{X} \triangleq \frac{1}{n} \sum_{i=1}^{n} X_{i} \stackrel{P}{\longrightarrow} \mu Xˉ≜n1i=1∑nXi⟶Pμ 因为 E ( X ˉ ) = μ E(\bar{X})=\mu E(Xˉ)=μ, 所以上式也可写成 X ˉ ⟶ P E ( X ˉ ) \bar{X} \stackrel{P}{\longrightarrow} E(\bar{X}) Xˉ⟶PE(Xˉ) 也即 lim n → ∞ P ( ∣ X ˉ − μ ∣ ≥ ε ) = 0 \lim _{n\rightarrow \infty} P(|\bar{X}-\mu| \geq \varepsilon)=0 n→∞limP(∣Xˉ−μ∣≥ε)=0
大数定律揭示了大量随机变量的平均结果,但没有涉及到随机变量的分布的问题。而中心极限定理则指:在一定条件下,大量独立随机变量的均值经适当标准化后依分布收敛于正态分布。
中心极限定理是概率论中最著名的结果之一。它提出大量的独立随机变量之和具有近似于正态的分布。因此,它不仅提供了计算独立随机变量之和的近似概率的简单方法,而且有助于解释为什么有很多自然群体的经验频率呈现出钟形(即正态)曲线这一事实,因此中心极限定理这个结论使正态分布在数理统计中具有很重要的地位,也使正态分布有了广泛的应用。
设独立同分布的随机变量序列 X 1 , X 2 , ⋯ , X n , ⋯ X_{1}, X_{2}, \cdots, X_{n}, \cdots X1,X2,⋯,Xn,⋯, 且 E ( X i ) = μ , D ( X i ) = σ 2 ≠ 0 E\left(X_{i}\right)=\mu, D\left(X_{i}\right)=\sigma^{2} \neq 0 E(Xi)=μ,D(Xi)=σ2=0, 则对任意的实数 x ∈ ( − ∞ , + ∞ ) x \in(-\infty,+\infty) x∈(−∞,+∞), 总有 lim n → ∞ P ( ∑ i = 1 n X i − n μ n σ 2 ≤ x ) = Φ ( x ) \lim _{n \rightarrow \infty} P\left(\frac{\sum_{i=1}^{n} X_{i}-n \mu}{\sqrt{n \sigma^{2}}} \leq x\right)=\Phi(x) n→∞limP(nσ2∑i=1nXi−nμ≤x)=Φ(x) 注意
(1). 为了便于理解,上式可以看作: P ( x ⩽ a ) ≈ ϕ ( a ) P(x \leqslant a) \approx \phi(a) P(x⩽a)≈ϕ(a),也即把上式中 x x x看作常数,真正的变量为括号中左半部分。
(2). 实际问题计算中不需要 n → ∞ n \rightarrow \infty n→∞, n n n取任意较大的数即可。
(1). 假设有: Y = ∑ i = 1 n X i − n μ n σ 2 Y=\frac{\sum_{i=1}^{n} X_{i}-n \mu}{\sqrt{n \sigma^{2}}} Y=nσ2∑i=1nXi−nμ 那么: Y ⟶ n → ∞ N ( 0 , 1 ) Y \stackrel{n \rightarrow \infty}{\longrightarrow} N(0,1) Y⟶n→∞N(0,1) (2). 假设有: Z = ∑ i = 1 n X i Z=\sum_{i=1}^{n} X_{i} Z=i=1∑nXi 那么: Z ⟶ n → ∞ N ( n μ , n σ 2 ) Z \stackrel{n \rightarrow \infty}{\longrightarrow} N\left(n \mu, n \sigma^{2}\right) Z⟶n→∞N(nμ,nσ2) 所以, (1)式也可以写成: Y = Z − E ( Z ) D ( Z ) ⟶ n → ∞ N ( 0 , 1 ) . Y=\frac{Z-E(Z)}{\sqrt{D(Z)}} \stackrel{n \rightarrow \infty}{\longrightarrow} N(0,1) . Y=D(Z)Z−E(Z)⟶n→∞N(0,1).
概率论知识点总结 第13篇
1. 生命在生物圈中的延续和发展最基本的环节是生物通过生殖和发育。
2. 由两性生殖细胞结合成受精卵,发育成新个体的生殖方式为有性生殖。意义是具有两个亲本的遗传性,具有更大的生活力和变异,更能适应新的环境,利于扩大植物的分布范围,对植物的进化也有重要意义。不经过两性生殖细胞的结合,由母体直接产生新个体的生殖方式为无性生殖。意义是产生新个体的速度较快,利于在环境适宜的条件下短时间繁殖出大量个体,并且后代特征较为一致,易保持母体的优良特征。
3. 无性生殖在农业上的应用主要有压条、嫁接和扦插。嫁接就是把一个植物体的芽或枝,接在另一个植物体上,使结合在一起的两部分长成一个完整的植物体。确保嫁接成功的条件是亲缘关系越近和形成层紧密结合。嫁接后可以保持接穗的优良特性。常用扦插方法的有甘薯、葡萄、菊、月季、紫背天葵、杨、柳等。
4. 扦插材料的处理:实验步骤(1)选取易扦插的材料并处理,共20只;(2)选择有两个节的,上节的叶去掉一部分,下节全部去掉;(3)贴标签A、B,A组上切口水平,下切口斜向,B组上下切口都为水平;(4)插入土中,放入容器,提供充分的光照、水分和适宜的温度;(5)定期观察记录。
5. 节的部位居间分生组织发达,较易生根。茎段上方切口水平,下方切口斜向是为了容易辨认正反方向,同时上方水平是为了减少水分过多蒸发,下方斜向是为了增加吸收水分的面积,促进生根。上一个节上的叶要去掉部分叶片是为了减少蒸腾作用,留部分叶是为了保持光合作用;下一个节要去掉全部的叶是为了留有伤痕,易形成愈伤组织,易生根。
概率论知识点总结 第14篇
(1)多维随机变量的概念及分类
(2)二维离散型随机变量联合概率分布及其性质
(3)二维连续型随机变量联合概率密度及其性质
(4)二维随机变量联合分布函数及其性质
(5)二维随机变量的边缘分布和条件分布
(6)随机变量的独立性
(7)两个随机变量的简单函数的分布
其中:本章是概率的重中之重,每年的解答题定会有一道与此知识点有关,每个知识点都是重点,务必重视!
概率论知识点总结 第15篇
概率论知识总结
第一章 概率论的基本概念
1. 随机试验
确定性现象:在自然界中一定发生的现象称为确定性现象。
随机现象: 在个别实验中呈现不确定性,在大量实验中呈现统计规律性,这种现象称
为随机现象。
随机试验:为了研究随机现象的统计规律而做的的实验就是随机试验。
随机试验的特点:1)可以在相同条件下重复进行;
2)每次试验的可能结果不止一个,并且能事先明确试验的所有可能
结果;
3)进行一次试验之前不能确定哪一个结果会先出现;
2. 样本空间、随机事件
样本空间:我们将随机试验E的所有可能结果组成的集合称为E的样本空间,记为S。 样本点:构成样本空间的元素,即E中的每个结果,称为样本点。
事件之间的基本关系:包含、相等、和事件(并)、积事件(交)、差事件(A-B:包含A
不包含B)、互斥事件(交集是空集,并集不一定是全集)、对立
事件(交集是空集,并集是全集,称为对立事件)。
事件之间的运算律:交换律、结合律、分配率、摩根定理(通过韦恩图理解这些定理)
3. 频率与概率
频数:事件A发生的次数
频率:频数/总数
概率:当重复试验的次数n逐渐增大,频率值就会趋于某一稳定值,这个值就是概率。 概率的特点:1)非负性。2)规范性。3)可列可加性。
概率性质:1)P(空集)=0,2)有限可加性,3)加法公式:P(A+B)=P(A)+P(B)
-P(AB)
4. 古典概型
学会利用排列组合的知识求解一些简单问题的概率(彩票问题,超几何分布,分配问题,
插空问题,捆绑问题等等)
5. 条件概率
定义:A事件发生条件下B发生的概率P(B|A)=P(AB)/P(A)
乘法公式:P(AB)=P(B|A)P(A)
全概率公式与贝叶斯公式
6. 独立性检验
设 A、B是两事件,如果满足等式
P(AB)=P(A)P(B)
则称事件A、B相互独立,简称A、B独立。
第二章.随机变量及其分布
1. 随机变量
定义:设随机试验的样本空间为S={e}. X=X(e)是定义在样本空间S上的单值函数,称
X=X(e)为随机变量。
2. 离散型随机变量及其分布律
三大离散型随机变量的分布
1)(0——1)分布。E(X)=p, D(X )=p(1-p)
2)伯努利试验、二项分布 E(X)=np, D(X)=np(1-p)
3) 泊松分布 P(X=k)= (?^k)e^(- ?)/k! (k=0,1,2,……)
E(X)=?,D(X)= ?
注意:当二项分布中n 很大时,可以近似看成泊松分布,即np= ?
3. 随机变量的分布函数
定义:设X是一个随机变量,x是任意的实数,函数
F(x)=P(X≤x),x属于R 称为X的分布函数
分布函数的性质:
1) F(x)是一个不减函数
2) 0≤F(x)≤1
离散型随机变量的分布函数的求法(由分布律求解分布函数)
连续性随机变量的分布函数的求法(由分布函数的图像求解分布函数,由概率密度求
解分布函数)
4. 连续性随机变量及其概率密度
连续性随机变量的分布函数等于其概率密度函数在负无穷到x的变上限广义积分 相反密度函数等与对应区间上分布函数的导数
密度函数的性质:1)f(x)≥0
2) 密度函数在负无穷到正无穷上的广义积分等于1
三大连续性随机变量的分布: 1)均与分布 E(X)=(a+b)/2 D (X)=[(b-a)^2]/12
2)指数分布 E(X)=θ D(X)=θ^2
3)正态分布一般式(标准正态分布)
5. 随机变量的函数的分布
1)已知随机变量X的 分布函数求解Y=g(X)的分布函数
2)已知随机变量X的 密度函数求解Y=g(X)的密度函数
第三章 多维随机变量及其分布(主要讨论二维随机变量的分布)
1.二维随机变量
定义 设(X,Y)是二维随机变量,对于任意实数x, y,二元函数
F(x, Y)=P[(X≤x)交(Y≤y)] 称为二维随机变量(X,Y)的分布函数或称为随机变量联合分布函数
离散型随机变量的分布函数和密度函数
连续型随机变量的分布函数和密度函数
重点掌握利用二重积分求解分布函数的方法
2.边缘分布
离散型随机变量的边缘概率
连续型随机变量的边缘概率密度
3.相互独立的随机变量
如果X,Y相互独立,那么X,Y的联合概率密度等于各自边缘的乘积
5. 两个随机变量的分布函数的分布
关键掌握利用卷积公式求解Z=X+Y的概率密度
第四章.随机变量的数字特征
1.数学期望
离散型随机变量和连续型随机变量数学期望的求法
六大分布的数学期望
2.方差
连续性随机变量的方差
D(X)=E(X^2)-[E (X )]^2
方差的基本性质:
1) 设C是常数,则D(C)=0
2) 设X随机变量,C是常数,则有
D(CX)=C^2D(X)
3) 设X,Y是两个随机变量,则有
D(X+Y)=D(X)+D(Y)+2E{(X-E(X))(Y-E(Y))} 特别地,若X,Y不相关,则有D(X+Y)=D(X)+ D(Y) 切比雪夫不等式的简单应用
3. 协方差及相关系数
协方差:Cov(X ,Y )= E{(X-E(X))(Y-E(Y))}
相关系数:m=Cov(x,y)/√D(X) √D(Y)
当相关系数等于0时,X,Y 不相关,Cov(X ,Y )等于0 不相关不一定独立,但独立一定不相关
概率论知识点总结 第16篇
设 Ω x = { a 1 , a 2 , a 3 , ⋯ , a n , ⋯ } \Omega_{x}=\left\{a_{1}, a_{2}, a_{3}, \cdots, a_{n}, \cdots\right\} Ωx={a1,a2,a3,⋯,an,⋯} 且 P ( x = a i ) = p i P\left(x=a_{i}\right)=p_{i} P(x=ai)=pi 其中 p i p_{i} pi 满足:
(1). p i ⩾ 0 ( i = 1 , 2 , ⋯ ) \quad p_{i} \geqslant 0 \quad(i=1,2, \cdots) pi⩾0(i=1,2,⋯)
(2). ∑ i = 1 ∞ p i = 1 \quad \sum_{i=1}^{\infty} p_{i}=1 ∑i=1∞pi=1
那么, 称 p ( x = a i ) = p i , i = 1 , 2 , ⋯ p\left(x=a_{i}\right)=p_i, i=1,2, \cdots p(x=ai)=pi,i=1,2,⋯ 为随机变量X的概率函数或概率质量函数。
联合概率函数(联合概率分布):
一个随机试验的样本空间 Ω \Omega Ω中每一个样本点是 ( X , Y ) (X, Y) (X,Y), 表示为 : : : P ( X = a i , Y = b j ) = P ( { X = a i } ∩ { Y = b j } ) = p i j P\left(X=a_{i}, Y=b_{j}\right)=P\left(\left\{X=a_{i}\right\} \cap\left\{Y=b_{j}\right\}\right)=p_{i j} P(X=ai,Y=bj)=P({X=ai}∩{Y=bj})=pij , i = 1 , 2 , ⋯ , j = 1 , 2 , … , i=1,2, \cdots, j=1,2, \ldots ,i=1,2,⋯,j=1,2,…
p i j p_{i j} pij 满足:
(1). p i j ⩾ 0 p_{i j} \geqslant 0 pij⩾0
(2). ∑ i ∑ j p i j = 1 \sum_{i} \sum_{j} p_{i j}=1 ∑i∑jpij=1
X ∼ B ( 1 , p ) : X X \sim B(1, p): X X∼B(1,p):X 服从参数为 p p p 的0-1分布
概率函数: P ( X = k ) = p k ⋅ ( 1 − p ) 1 − k , k = 0 , 1 P(X=k)=p^{k} \cdot(1-p)^{1-k}, k=0,1 P(X=k)=pk⋅(1−p)1−k,k=0,1
k表示事件发生的状态(0或1),贝努利试验服从0-1分布,且0-1分布在大自然中很常见
X ∼ B ( n , p ) : X X \sim B(n, p): X X∼B(n,p):X 服从参数为 n , p n, p n,p 的二项分布
概率函数:
P ( X = k ) = C n k ⋅ p k ⋅ ( 1 − p ) n − k , k = 0 , 1 , 2 , … , n P(X=k)=C_{n}^{k} \cdot p^{k} \cdot(1-p)^{n-k}, k=0,1,2, \ldots, n P(X=k)=Cnk⋅pk⋅(1−p)n−k,k=0,1,2,…,n
且 ∑ k = 0 n C n k ⋅ p k ( 1 − p ) n − k = 1 \sum_{k=0}^{n} C_{n}^{k} \cdot p^{k}(1-p)^{n-k}=1 ∑k=0nCnk⋅pk(1−p)n−k=1
k表示将事件X重复n次,其中状态为1的次数。n重贝努利试验服从二项分布
假设N个产品中有M个次品,随机从中取n个产品,所含的次品数X的概率函数为: P ( X = k ) = C M k ⋅ C N − M n − k C N n , k = 0 , 1 , 2 , ⋯ , min { M , n } P(X=k)=\frac{C_{M}^{k} \cdot C_{N-M}^{n-k}}{C_{N}^{n}}, k=0,1,2, \cdots, \min \{M, n\} P(X=k)=CNnCMk⋅CN−Mn−k,k=0,1,2,⋯,min{M,n} 这就是超几何分布。
当 N ⟶ ∞ \mathrm{N} \longrightarrow \infty N⟶∞ 时,超几何分布服从 p = M N p=\frac{M}{N} p=NM 的二项分布,即:当产品总数非 常大时有放回抽样和无放回抽样近似相同。
对于二项分布B(n, p), 当n很大时计算难度会巨增(比如 C 1000 50 × 2 50 × 8 950 ) \{1000}^{50} \times {50} \times {950}\right) C100050×0.0250×0.98950), 此时可以用 λ = n p \lambda=n p λ=np 的泊松分布来代替,计算结果近似相同。
X ∼ P ( λ ) : X X \sim P(\lambda): X X∼P(λ):X 服从参数为 λ \lambda λ 的泊松分布
概率函数: P ( X = k ) = λ k k ! ⋅ e − λ , k = 0 , 1 , 2 , ⋯ , λ = n p P(X=k)=\frac{\lambda^{k}}{k !} \cdot e^{-\lambda}, k=0,1,2, \cdots, \lambda=n p P(X=k)=k!λk⋅e−λ,k=0,1,2,⋯,λ=np
泊松分布一般用来表示单位时间内随机事件发生的次数,比如汽车站台的候客人数、机器出现的故障数、自然灾害发生的次数等等,参数λ是单位时间内随机事件的平均发生率。
X 1 2 3 ⋯ ⋅ ⋅ k P p p ( 1 − p ) p ( 1 − p ) 2 ⋯ ⋯ p ( 1 − p ) k − 1 \begin{array}{|c|c|c|c|c|c|} \hline \mathrm{X} & 1 & 2 & 3 & \cdots \cdot \cdot & \mathrm{k} \\ \hline \mathbf{P} & \mathrm{p} & \mathrm{p}(1-\mathrm{p}) & \mathrm{p}(1-\mathrm{p})^{2} & \cdots \cdots & \mathrm{p}(1-\mathrm{p})^{\mathrm{k}-1} \\ \hline \end{array} XP1p2p(1−p)3p(1−p)2⋯⋅⋅⋯⋯kp(1−p)k−1
应用举例:运动员连续射门,每次射中的概率都为p,到射中为止射门的总次数为k,计算概率P
P ( X = a i ) = 1 n , X ∈ { a 1 , a 2 , ⋯ , a n } P\left(X=a_{i}\right)=\frac{1}{n}, X \in\left\{a_{1}, a_{2}, \cdots, a_{n}\right\} P(X=ai)=n1,X∈{a1,a2,⋯,an}
对于联合分布 ( X , Y ) (X, Y) (X,Y):
P ( X = a i ) = ∑ j p i j = p i , i = 1 , 2 , … P\left(X=a_{i}\right)=\sum_{j} p_{i j}=p_{i}, i=1,2, \ldots P(X=ai)=j∑pij=pi,i=1,2,…
具有可加性的分布:
1). 二项分布
当 X ∼ B ( n , p ) , Y ∼ B ( m , p ) X \sim B(n, p), \quad Y \sim B(m, p) X∼B(n,p),Y∼B(m,p) 时: X + Y ∼ B ( m + n , p ) X+Y \sim B(m+n, p) X+Y∼B(m+n,p)
2). 泊松分布 当 X ∼ P ( λ 1 ) , Y ∼ P ( λ 2 ) X \sim P\left(\lambda_{1}\right), \quad Y \sim P\left(\lambda_{2}\right) X∼P(λ1),Y∼P(λ2) 时: X + Y ∼ P ( λ 1 + λ 2 ) X+Y \sim P\left(\lambda_{1}+\lambda_{2}\right) X+Y∼P(λ1+λ2)
3). 正态分布 当 X ∼ N ( μ 1 , σ 1 2 ) , Y ∼ N ( μ 2 , σ 2 2 ) X \sim N\left(\mu_{1}, \quad \sigma_{1}^{2}\right), \quad Y \sim N\left(\mu 2, \sigma_{2}^{2}\right) X∼N(μ1,σ12),Y∼N(μ2,σ22) 时 X + Y ∼ N ( μ 1 + μ 2 , σ 1 2 + σ 2 2 ) X+Y \sim N\left(\mu_{1}+\mu_{2}, \sigma_{1}^{2}+\sigma_{2}^{2}\right) X+Y∼N(μ1+μ2,σ12+σ22)
4). 卡方分布 当 X ∼ X 2 ( m ) , Y ∼ X 2 ( n ) X \sim X^{2}(m), \quad Y \sim X^{2}(n) X∼X2(m),Y∼X2(n) 时: X + Y ∼ X 2 ( m + n ) X+Y \sim X^{2}(m+n) X+Y∼X2(m+n)