第一章随机事件与样本空间,进行随机试验得到试验结果,全部样本点组成样本空间,样本全体引入子集,引入随机事件,引入事件概率,概率计算有古典概型和n 重伯努利试验。
这是几百年前概率论的发展。它最大的发展是引进入微积分,进入第二章——随机变量及其分布。
把样本空间的全体引入一个函数——随机变量random viable, 用这个函数来表示随机事件,引入分布函数,分为离散型和连续型,这两种随机变量的定义和性质有所不同,其中它们所谓的重要条件就是概率的性质在新的条件下的反映。其中连续型随机变量的分布函数用积分来表示,求导成为概率密度函数,由此概率论引进微积分。
掌握常考分布——B P U E N (二项分布、泊松分布、均匀分布、指数分布、正态分布)的称呼、定义、记号、参数、特点。
1、要概念清楚
概率得不出事件结论,概率为0的事件不一定是空集,概率为1的事件不一定是全集;
独立bar不bar没关系;
概率为0或1的事件与所有事件都独立。
2、重点是条件概率(缩减样本空间)、五大公式(全概率和贝叶斯公式设完备事件组的设法)、n重伯努利实验。
完成第二章随机变量及其分布,第三章开始。
第二章重点有三。总结如下。
一、概率、分布函数、离散型随机变量、连续型随机变量的定义、重要条件及其他性质的一张比较表;后四者所谓的重要条件实际上是概率性质在新形势下的反映。
二、五个常考分布:二项分布是n重伯努利试验成功k次的概率;泊松分布描述如校门口1小时内通过多少辆车的概率;均匀分布如四舍五入、等公交车、等电梯的时间分布;指数分布描述生命、寿命的分布,无记忆性;正态分布也是比较常用的。
求概率时,均匀分布量尺寸,正态分布四下子(查表、标准化、对称性、定参数),只有指数分布会用到积分计算。背过两个积分公式——泊松积分和伽马函数。
三、一维随机变量函数的分布。三件事情处理好拿11分大题——定义、范围、端点。
把任何一个分布函数拿来,把随机变量塞到它自己的分布函数里面去,把小变量变成大的随机变量,出来新的随机变量一定服从0-1分布。
第三章 二维随机变量总结。
1、二维随机变量常考分布:均匀、正态。二维均匀量尺寸,二维正态一定是用对称性
2、二维随机变量函数的分布。三种情况:离散和离散的拆开;连续和连续的哪儿求概率哪儿求积分;离散和连续的把离散的用全概率公式展开。
3、二维离散、连续型随机变量的独立和条件概率。
二维离散型随机变量独立:行(列)之间成比例;条件概率:行(列)内部按比例分配,条件概率等于1/2时,两个概率相等。
二维连续型随机变量有两个相逆的题型:
已知二维连续型随机变量的联合概率密度函数求边缘概率密度和条件概率密度,把“大其他”变成“小其他”,其中求条件概率密度一定要注意范围,分母大于0才存在;或者反过来,已知一个边缘概率密度和一个条件概率密度,求联合概率密度,此时要注意求的全平面内的联合概率密度,所以要把约束条件去掉,用密度积分为1去掉条件,即通过积分等于1把“小其他”变成“大其他”。
总结第四章 数字特征。
重点有三。
1、期望、方差、协方差、相关系数的定义与性质。
为什么叫"期望"而不是"平均"?因平均都是有限个数之间,期望是无限个数。求期望三个方法:定义、对称性、性质。
方差是偏离平均值的程度、分散程度。
协方差描述两随机变量间的差异程度。求协方差要先暴露两个变量之间的关系。
相关系数是标准化了的期望,纯粹反映它们之间的差别。二维随机变量若服从0-1分布,求相关系数可在分布律上"抠右脚",若二维离散随机变量不服从0-1分布,照样按照0-1分布"抠右脚"(常熟不影响)。
计算上述量一定要选择好方法;做题前形成如下习惯:看两随机变量独立否?对称否?联合密度函数?计算积分繁琐,能用对称尽量对称。
2、五个常考分布的期望和方差。几何分布与超几何分布的参数推导,无需背。
一维正态记四下子,二维正态分布也有四点性质。其中,二维正态保证每个边缘都正态,反过来,边缘正态不能保证二维正态。
3、二维随机变量函数的期望。
总结第五章——大数定律和中心极限定理。
这章出题概率不大。有三点内容。
1、切比雪夫不等式。
2、大数定律。依概率收敛的概念引出切比雪夫大数定律、辛钦大数定律、伯努利大数定律(上面两个的特例),总结如下:若"X i 不相关,方差有界"或"Xi 独立同分布,期望存在",则Xi 的算术平均值依概率收敛于Xi 期望的算术平均值。
3、中心极限定理。Xi 独立同分布、方差存在,则Xi 的和近似服从正态分布。
第六章 数理统计。内容有二。
1、总体与样本。总体有分布函数、概率分布、概率密度,相应样本有分布函数、分布律、概率密度。
2、抽样分布。
样本数字特征:样本均值和样本方差及它们各自的期望、方差。
三大抽样分布的典型模式。(概率论中只有一个地方涉及4次方——卡方分布的方差。)
正态总体条件下样本均值与样本方差的分布。
第七章 参数估计。
矩估计和最大似然估计。