国产精品天干天干,亚洲毛片在线,日韩gay小鲜肉啪啪18禁,女同Gay自慰喷水

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

隨機擾動項和殘差區(qū)別?總體回歸函數(shù)和樣本回歸函數(shù)區(qū)別?以一元回歸為例。

2023-02-20 14:53 作者:blZel  | 我要投稿

一、問題開始前,我們首先要了解一下何為“回歸”。

? ? “回歸”一次最早由?F·高爾頓(Francis Galton)?提出,在一篇研究父母與子女身高關(guān)系的論文中,他發(fā)現(xiàn)雖然有這樣一個趨勢:個子高的父母子女也會高、個子矮的父母子女也會矮。但是從大數(shù)上來看,給定任一父母的身高,孩子真實身高不一定會滿足“父母高孩子高、父母矮孩子矮”的規(guī)律,而是趨向于人口總體的平均身高,這種現(xiàn)象叫做“高爾頓普遍回歸定律”,這也就是“回歸”一詞的原本含義。

? ? 現(xiàn)在“回歸”一詞已經(jīng)演變?yōu)橐环N新的概念,作為動詞表示“回歸分析”:研究被解釋變量對解釋變量的依賴關(guān)系,目的就是從已經(jīng)知道的解釋變量的值,去推斷被解釋變量的總體均值。所謂“推斷”也即“回歸”有很多種方法,常見的就是LS最小二乘法、MLE極大似然估計法等。

二、總體回歸函數(shù)PRF與隨機擾動項u_%7Bi%7D%20

? ? 從上面的概念我們已經(jīng)知道,“回歸”相當(dāng)于給你解釋變量(以下用x_%7Bi%7D代替),去預(yù)測被解釋變量(以Y_%7Bi%7D代替)的均值或者期望值。那么,我們可以這樣表示:

E(Y%7CX_%7Bi%7D)%3D%5Cbeta_%7B1%7D%2B%5Cbeta_%7B2%7DX_%7Bi%7D......①

? ? 這里的Y指的就是總體的均值或者期望值,如果X_%7Bi%7D表示已知的總體的各個解釋變量,那么我們就稱式“總體回歸函數(shù)”(Population Regression Function)注意,這里需要給大家解釋清楚:同一個X值,可能有很多個i體,比如身高為170cm的孩子有很多很多,身高為180cm的孩子也有很多很多,兩組不同的身高組,就會形成兩個組各自父母身高的均值。

總體回歸線

? ? 在解釋變量給定值的情況下被解釋變量(條件)均值或期望值的軌跡,就叫做總體回歸線!知道了總體回歸函數(shù)和總體回歸線,那么接下來就可以引入“隨機擾動項”的概念了。隨機擾動項(以下用u_%7Bi%7D來表示)指的是“除了X_%7Bi%7D以外影響Y_%7Bi%7D不可觀測可正可負(fù)隨機變量”,又叫做“離差”。繼續(xù)以上面父母與子女身高關(guān)系的例子為例,既然我們預(yù)測到了不同身高孩子的父母身高各自均值,那么給定一個孩子,其父母真實身高與預(yù)測的、本組本應(yīng)該有的父母的身高均值之間的差距,就用“隨機擾動項”來描述。加上隨機擾動項后,就得到了總體回歸函數(shù)的隨機形式

Y_%7Bi%7D%3DE(Y%7CX_%7Bi%7D)%2Bu_%7Bi%7D%3D%5Cbeta_%7B1%7D%2B%5Cbeta_%7B2%7DX_%7Bi%7D%2Bu_%7Bi%7D......②

? ? 這里的Y_%7Bi%7D指的是實際的觀測值即真實值,等于回歸后的均值或者期望值加上隨機擾動項u_%7Bi%7D%20?,F(xiàn)實中有很多原因?qū)е聜€體的真實值和均值不一樣,比如數(shù)據(jù)問題、模型設(shè)置問題、個體隨機特點等等,并且從節(jié)省原則來思考,我們也希望變量越少越好。所以“隨機擾動項”是計量經(jīng)濟(jì)學(xué)中最重要、也是最有特色的一點,是和數(shù)理經(jīng)濟(jì)學(xué)等學(xué)科最本質(zhì)的區(qū)別。所謂“驚喜和惡魔都在隨機擾動項里”,處理隨機擾動項,是計量經(jīng)濟(jì)學(xué)最頭疼、也最讓人樂此不疲的事情。

三、樣本回歸函數(shù)SRF與殘差e_%7Bi%7D

? ? 我們都知道,獲得總體所有的觀測值困難重重,所以現(xiàn)實中就寄希望于抽取樣本,通過樣本做回歸,用來估計總體的回歸函數(shù)。和總體回歸函數(shù)一樣,通過抽取的樣本觀測值X_%7Bi%7D來預(yù)測所抽取的該組樣本內(nèi)每一個X_%7Bi%7D對應(yīng)的Y_%7Bi%7D的期望值和均值,就得到了樣本回歸函數(shù)(Sample Regression Function),表示為:

%5Chat%7BY_%7Bi%7D%7D%3D%5Chat%7B%5Cbeta_%7B1%7D%7D%2B%5Chat%7B%5Cbeta_%7B2%7D%7DX_%7Bi%7D......③

? ? 這里的%5Chat%7BY_%7Bi%7D%7D指的是抽取的這一個樣本中每一組不同數(shù)值的X_%7Bi%7D對應(yīng)的Y_%7Bi%7D的均值,一定要注意,我們可能會抽取很多個樣本,每一個樣本都能得到一個不一樣的樣本回歸函數(shù)!這是理解的關(guān)鍵所在。

樣本回歸線

? ? 然后定義樣本回歸函數(shù)的隨機形式

Y_%7Bi%7D%3D%5Chat%7B%5Cbeta_%7B1%7D%7D%2B%5Chat%7B%5Cbeta_%7B2%7D%7DX_%7Bi%7D%2Be_%7Bi%7D%3D%5Chat%7BY_%7Bi%7D%7D%2Be_%7Bi%7D......④

? ? 這里的Y_%7Bi%7D指的是抽取的這一個樣本中每一組不同數(shù)值的X_%7Bi%7D對應(yīng)的Y_%7Bi%7D觀測值(真實值),也是等于回歸后的均值加上一個樣本中的類似總體的“隨機擾動項”u_%7Bi%7D”,只不過這里的"u_%7Bi%7D%20"寫作“e_%7Bi%7D”,我們叫做“殘差”。對于不同的樣本,會有不同的“殘差”!

四、區(qū)分和總結(jié)

? ? 前面說到,我們希望用樣本回歸函數(shù)來代替總體回歸函數(shù),但是可能會有很多次抽樣,從而得到不同的樣本,每一次抽樣都得到一個新的樣本回歸函數(shù),那么一哪一次為準(zhǔn)呢?能不能完全替代總體回歸函數(shù)(樣本回歸線和總體回歸線完全一致)呢?答案是“只有上帝才知道”,我們幾乎不可能完全替代總體回歸函數(shù),因為誰也不知道總體回歸線的具體真實樣子,所以每一次回歸都認(rèn)為是一次正確的替代。樣本容量越大,即抽樣數(shù)量和總體數(shù)量之間差距越小,我們的替代就越可能接近真實總體回歸函數(shù)的樣子。

? ? 參照式子和式子,如果進(jìn)行“替代”(即認(rèn)為中的Y_%7Bi%7D已經(jīng)包括了所有總體值,總體和樣本沒有容量差距),我們就會發(fā)現(xiàn):此時e_%7Bi%7D實際就是【樣本回歸函數(shù)的“隨機擾動項”+樣本和總體之間容量不一致導(dǎo)致的抽樣誤差】。


隨機擾動項和殘差區(qū)別?總體回歸函數(shù)和樣本回歸函數(shù)區(qū)別?以一元回歸為例。的評論 (共 條)

分享到微博請遵守國家法律
新野县| 始兴县| 英超| 牙克石市| 罗田县| 莱阳市| 祁连县| 弥渡县| 辉南县| 桦甸市| 台南市| 平昌县| 浏阳市| 兴文县| 贡山| 昭觉县| 开鲁县| 方山县| 太原市| 洛浦县| 会东县| 阿瓦提县| 汉寿县| 合阳县| 乌审旗| 怀宁县| 台湾省| 松江区| 宜良县| 临漳县| 元谋县| 论坛| 启东市| 泰和县| 白水县| 潼关县| 新源县| 宜兰市| 泉州市| 毕节市| 读书|