论文摘要
线性模型是统计学中最常用的模型之一,它包括线性回归模型、方差分析模型、协方差分析模型和方差分量模型等。在实际问题中,尤其是在解决含有较多自变量的大型回归问题时,设计矩阵不可避免的存在复共线性,这时使用最小二乘估计去估计回归系数,可能会使得回归系数估计值的符号与问题的实际意义相违背或是回归系数的估计值的绝对值异常大。为了解决复共线性问题,统计学家们提出了有偏估计。有偏估计是牺牲估计无偏性来换取方差的减小。在均方误差意义下,有偏估计可以改良最小二乘估计。本文在以前统计学者们的成果上,对有偏估计进行进一步研究,阐述了解决多重共线性问题的三种方法:Stein压缩估计、岭回归方法和主成分回归方法,对这三种方法进行了综述,对它们的性质进行了归纳和总结,并对有偏估计中使用最为广泛的岭估计进行了改进,证明其在均方误差意义下较最小二乘估计具有的优越性。本文使用奇异值分解定理和Schur分解定理将现有最新成果线性模型中假设设计矩阵列满秩、异方差、序列相关的假设条件,推广到设计矩阵非满秩、异方差、序列相关的情形,定义了一般线性回归模型的Moore-Penrose逆阵岭估计和广义线性回归模型的Moore-Penrose逆阵岭估计,研究并证明了这两种估计的性质,得出这两种估计都是最小二乘估计的线性变换,都是有偏估计和压缩估计,在均方误差意义下,这两种估计都优于相应的最小二乘估计。