關(guān)于高斯馬爾科夫定理五個(gè)假設(shè),高斯馬爾科夫定理這個(gè)問(wèn)題很多朋友還不知道,今天小六來(lái)為大家解答以上的問(wèn)題,現(xiàn)在讓我們一起來(lái)看看吧!
1、高斯--馬爾可夫定理的意義在于,當(dāng)經(jīng)典假定成立時(shí),我們不需要再去尋找其它無(wú)偏估計(jì)量,沒(méi)有一個(gè)會(huì)優(yōu)于普通最小二乘估計(jì)量。
2、也就是說(shuō),如果存在一個(gè)好的線性無(wú)偏估計(jì)量,這個(gè)估計(jì)量的方差最多與普通最小二乘估計(jì)量的方差一樣小,不會(huì)小于普通最小二乘估計(jì)量的方差。
3、高斯-馬爾可夫定理總共分為對(duì)OLS(Ordinary least square)普通線性方程有5個(gè)假設(shè)。
4、1.Assumption MLR.1(linear in parameters): 假設(shè)一要求所有的母集團(tuán)參數(shù)(population parameters)為常數(shù),用來(lái)保證模型為線性關(guān)系。
5、即如果母集團(tuán)方程為y=a+b1x1+b2x2+...+bkxk+u, 所有的a, b1,b2...bk必須為常數(shù)。
6、同時(shí)u為無(wú)法檢測(cè)的誤差項(xiàng),即實(shí)驗(yàn)過(guò)程中模型沒(méi)有包含的因素。
7、2. Assumption MLR.2 (Random sampling)假設(shè)二: 假設(shè)我們有n個(gè)調(diào)查的樣本,那么這n個(gè)樣本必須是從母集團(tuán)里面隨機(jī)抽樣得出的。
8、以假設(shè)一的方程為例,{(xi1,xi2, xi3.....xik,yi): i=1,2,3...n}3. Assumption MLR.3 (No perfect collinearity)假設(shè)三:在樣本(母集團(tuán))中, 沒(méi)有獨(dú)立變量(independent variable)是常數(shù),并且獨(dú)立變量之間不能有完全共線性。
9、(根據(jù)矩陣方程的定義,方程會(huì)無(wú)解)4. Assumption MLR.4 (Zero conditional mean)假設(shè)四: 母集團(tuán)方程的誤差項(xiàng)的均值為 0,并且均值不受到獨(dú)立變量的影響,可以表示為:E(U/ X1, X2...Xk)=05.Assumption MLR.5 (Homoscedasticity): 假設(shè)五:同方差性, 誤差項(xiàng)u的方差不受到獨(dú)立變量的影響為一個(gè)固定不變的值,可以表示為: Var(u/X1,X2...Xk)=σ [1] 在統(tǒng)計(jì)學(xué)中,高斯-馬爾可夫定理是指在誤差零均值,同方差,且相關(guān)的線性回歸模型中,回歸系數(shù)的最佳線性無(wú)偏估計(jì)就是最小方差估計(jì)。
10、一般而言,任何回歸系數(shù)的線性組合之BLUE(Best Linear Unbiased Estimators)就是它的最小方差估計(jì)。
11、在這個(gè)線性回歸模型中,其誤差不需要假定為正態(tài)分布或獨(dú)立同分布(而僅需要滿足相關(guān)和方差這兩個(gè)稍弱的條件)。
12、指在給定經(jīng)典線性回歸的假定下,最小二乘估計(jì)量是具有最小方差的線性無(wú)偏估計(jì)量的這一定理。
13、高斯--馬爾可夫定理的意義在于,當(dāng)經(jīng)典假定成立時(shí),我們不需要再去尋找其它無(wú)偏估計(jì)量,沒(méi)有一個(gè)會(huì)優(yōu)于普通最小二乘估計(jì)量。
14、也就是說(shuō),如果存在一個(gè)好的線性無(wú)偏估計(jì)量,這個(gè)估計(jì)量的方差最多與普通最小二乘估計(jì)量的方差一樣小,不會(huì)小于普通最小二乘估計(jì)量的方差。
本文分享完畢,希望對(duì)大家有所幫助。
標(biāo)簽:
免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!