기본 콘텐츠로 건너뛰기

다중선형회귀 분석 (1)



 일반적으로 우리 주변에서 일어나는 현상은 여러 가지 원인이 복합적으로 작용해서 생기게 됩니다. 물론 중력처럼 질량과 거리 이외에 다른 요소 (예를 들어 화학 구성)는 작용하지 않는 경우도 있지만, 당뇨나 고혈압의 발생, 빈부 격차의 이유 등 여러 가지 자연 혹은 사회 현상은 매우 다양한 요인에 의해 발생합니다. 따라서 독립변수와 종속변수와의 관계를 정확히 알기 위해서는 종속변수에 영향을 줄 수 있는 다양한 변수를 통제해야 합니다. 


 예를 들어 대학 시절 성적과 졸업 후 10년, 20년 후 수입의 관계를 분석하고 싶다면 소득에 영향을 미칠 수 있는 다양한 변수들 - 본래 가구 소득, 전공, 성별, 나이 - 등이 미치는 영향을 통제하지 않는다면 성적과 수입의 관계를 객관적으로 증명할 수 없을 것입니다. 따라서 이를 통계적으로 보정하는 방법이 널리 쓰이고 있는데, 다중선형회귀 (multiple linear regression)도 그 중 하나입니다. 물론 기본적으로 여러 변수가 결과에 미치는 영향을 알아내기 위한 것이지만, 다른 혼란 변수의 영향을 보정할 수 있기 때문입니다. 


 자세한 통계적인 설명은 하지 않겠지만, 간단한 다중선형회귀 모형을 모델링하면서 설명해 보겠습니다. 일단 가상 모델을 만들기 위해 x1, x2, x3의 세 가지 변수를 임의로 만들어보겠습니다. 


set.seed(1234)
x1<-rnorm span="">
x2<-rnorm span="">
x3<-rnorm span="">
b<-rnorm span="">
y=3*x1+1.5*x2+1.7*x3+b


 각각의 변수는 30개씩 묶여 있으며 결과 변수와 각각 3배, 1.5배 1.7배의 선형 비례 관계를 지니고 있습니다. 물론 실제로 이런 단순한 관계는 현실에서는 보기 어려우며 이해를 돕기 위한 시뮬레이션이라고 설명할 수 있을 것입니다. 아무튼 결과 변수 (종속 변수) y에 영향을 미치는 독립 변수 x가 3개인 모델인데 만약 lm(y~x1) 모델을 만들면 정확한 회귀 계수를 추정하기 어려울 것입니다. 이 경우 간단하게 model=lm(y~x1+x2+x3)을 만들어 각각의 회귀 계수를 추정하고 다른 독립 변수의 영향력을 보정할 수 있습니다. 실제 그 차이를 알아보기 위해 모델을 확인해 봅니다. 


require("olsrr")

model=lm(y~x1)
summary(model)
par(mfrow=c(2,2))
plot(model)

influence.measures(model)
ols_plot_cooksd_bar(model)
ols_plot_dfbetas(model)
ols_plot_dffits(model)

model=lm(y~x1+x2+x3)
summary(model)
par(mfrow=c(2,2))
plot(model)

influence.measures(model)
ols_plot_cooksd_bar(model)
ols_plot_dfbetas(model)
ols_plot_dffits(model)


 위의 코드를 실행시키면 사실 잔차도나 이상치는 엄청난 차이가 나지 않지만 summary에서 분명한 차이점을 발견할 수 있습니다. 


> model=lm(y~x1)
> summary(model)

Call:
lm(formula = y ~ x1)

Residuals:
   Min     1Q Median     3Q    Max 
-36.34 -14.44  -0.90  15.47  37.91 

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept) 116.3979    71.5144   1.628 0.114809    
x1            3.4529     0.8069   4.279 0.000198 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 19.62 on 28 degrees of freedom
Multiple R-squared:  0.3954, Adjusted R-squared:  0.3738 
F-statistic: 18.31 on 1 and 28 DF,  p-value: 0.0001979

> model=lm(y~x1+x2+x3)
> summary(model)

Call:
lm(formula = y ~ x1 + x2 + x3)

Residuals:
    Min      1Q  Median      3Q     Max 
-7.0906 -2.8166  0.2851  2.1145  9.5671 

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept) 29.02510   18.89307   1.536    0.137    
x1           2.60382    0.17270  15.077 2.29e-14 ***
x2           1.36528    0.16145   8.456 6.15e-09 ***
x3           1.70894    0.08153  20.961  < 2e-16 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 4.036 on 26 degrees of freedom
Multiple R-squared:  0.9762, Adjusted R-squared:  0.9735 
F-statistic: 356.1 on 3 and 26 DF,  p-value: < 2.2e-16


독립 변수를 하나만 지정한 모델 (model=lm(y~x1))은 Adjusted R-squared 값도  0.3738 정도로 낮고 회귀 계수 추정도 3.45로 다소 어긋난 반면 다른 변수를 보정한 모델은 (model=lm(y~x1+x2+x3)) Adjusted R-squared 값이 0.9735로 매우 높고 회귀 계수도 3에 좀 더 가까운 편입니다. 따라서 모델의 설명력이 매우 높은 모델입니다. 이 예제는 회귀 계수 추정이 생각보다 차이가 크지 않지만, 더 복잡한 데이터에서는 생각보다 큰 차이가 날 수 있습니다. 


 독립 변수는 연속 변수 형태인 경우도 있지만, 남성과 여성, 인종 같이 범주형 자료인 경우도 있습니다. 이 경우 모델에 이를 포함시키지 않는다면 상당히 왜곡된 결과를 얻을 수도 있습니다. 연속 변수가 아닌 범주형 변수를 하나 추가해 분석을 해보겠습니다. 이를 위해 데이터 프레임 data.frame 함수를 이용해서 데이터 프레임으로 만들고 여기서 x4라는 변수에 a,b 두 가지 범주를 넣어보겠습니다. 


set.seed(1234)
x1<-rnorm span="">
x2<-rnorm span="">
x3<-rnorm span="">
b<-rnorm span="">
y=3*x1+1.5*x2+1.7*x3+b

df1<-data .frame="" span="" x1="" x2="" x3="" y="">
df1$x4="a"

set.seed(1234)
x1<-rnorm span="">
x2<-rnorm span="">
x3<-rnorm span="">
b<-rnorm span="">
y=2.8*x1+1.3*x2+1.6*x3+b

df2<-data .frame="" span="" x1="" x2="" x3="" y="">
df2$x4="b"

df3<-rbind df1="" df2="" span="">

 x4라는 가상의 변수는 서로 약간 다른 회귀 계수를 지닌 두 개의 데이터 프레임을 합쳐 만들었습니다. 그리고 이렇게 범주형 자료인 경우 factor()를 이용해서 지정해주면 lm 함수에서 인식할 수 있습니다. 


model1=lm(y~x1+x2+x3+factor(x4), data=df3)
summary(model1)
par(mfrow=c(2,2))
plot(model1)

model2=lm(y~x1+x2+x3, data=df3)
summary(model2)
par(mfrow=c(2,2))
plot(model2)


 결과는 극명하게 차이가 나는 것으로 나옵니다. 



> model1=lm(y~x1+x2+x3+factor(x4), data=df3)
> summary(model1)

Call:
lm(formula = y ~ x1 + x2 + x3 + factor(x4), data = df3)

Residuals:
    Min      1Q  Median      3Q     Max 
-8.8316 -2.8166  0.0721  1.7924 10.0919 

Coefficients:
             Estimate Std. Error t value Pr(>|t|)    
(Intercept)  49.38998   15.00658   3.291  0.00175 ** 
x1            2.70382    0.12220  22.125  < 2e-16 ***
x2            1.46528    0.11424  12.826  < 2e-16 ***
x3            1.75894    0.05769  30.489  < 2e-16 ***
factor(x4)b -38.01016    1.96103 -19.383  < 2e-16 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 4.039 on 55 degrees of freedom
Multiple R-squared:  0.995, Adjusted R-squared:  0.9947 
F-statistic:  2749 on 4 and 55 DF,  p-value: < 2.2e-16


> model2=lm(y~x1+x2+x3, data=df3)
> summary(model2)

Call:
lm(formula = y ~ x1 + x2 + x3, data = df3)

Residuals:
    Min      1Q  Median      3Q     Max 
-34.680  -5.284   1.194   7.754  21.663 

Coefficients:
             Estimate Std. Error t value Pr(>|t|)    
(Intercept) -197.9125    21.9081  -9.034 1.59e-12 ***
x1             4.1547     0.2679  15.510  < 2e-16 ***
x2             2.7594     0.2571  10.733 3.31e-15 ***
x3             1.7401     0.1600  10.878 1.99e-15 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 11.2 on 56 degrees of freedom
Multiple R-squared:  0.961, Adjusted R-squared:  0.9589 
F-statistic: 460.3 on 3 and 56 DF,  p-value: < 2.2e-16

 
 x4를 포함한 경우 회귀 계수는 본래 값과 비교적 유사하게 나오지만, 포함하지 않은 경우 매우 이상하게 나오게 됩니다. 영향을 미칠 수 있는 다양한 변수를 통제하지 못할수록 정확한 결론을 내기 어려워지는 것입니다. 따라서 이 경우 x4를 포함한 모델이 더 우수하다는 결론이 나옵니다. 하지만 실제 통계 분석에서는 이렇게 본래 회귀 계수를 알 수 없는 경우가 대부분입니다. 이 경우 어떤 모델이 더 좋은지 어떻게 알 수 있을까요. anova를 통해 모델 간 비교가 가능합니다. 


> anova(model1, model2)
Analysis of Variance Table

Model 1: y ~ x1 + x2 + x3 + factor(x4)
Model 2: y ~ x1 + x2 + x3
  Res.Df    RSS Df Sum of Sq      F    Pr(>F)    
1     55  897.2                                  
2     56 7025.8 -1   -6128.5 375.69 < 2.2e-16 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1


 두 모델을 비교한 결과 유의한 차이가 있는 것으로 나왔기 때문에 x4를 포함했을 때 유의미한 차이가 있다고 말할 수 있습니다. 만약 차이가 없는 것으로 나오면 간결함 모델이 더 좋은 모델이므로 변수가 더 적은 모델을 선택하면 됩니다. 이 해석에 대해서는 앞으로 더 다룰 기회가 있을 것입니다. 



댓글

이 블로그의 인기 게시물

세상에서 가장 큰 벌

( Wallace's giant bee, the largest known bee species in the world, is four times larger than a European honeybee(Credit: Clay Bolt) ) (Photographer Clay Bolt snaps some of the first-ever shots of Wallace's giant bee in the wild(Credit: Simon Robson)  월리스의 거대 벌 (Wallace’s giant bee)로 알려진 Megachile pluto는 매우 거대한 인도네시아 벌로 세상에서 가장 거대한 말벌과도 경쟁할 수 있는 크기를 지니고 있습니다. 암컷의 경우 몸길이 3.8cm, 날개너비 6.35cm으로 알려진 벌 가운데 가장 거대하지만 수컷의 경우 이보다 작아서 몸길이가 2.3cm 정도입니다. 아무튼 일반 꿀벌의 4배가 넘는 몸길이를 지닌 거대 벌이라고 할 수 있습니다.   메가칠레는 1981년 몇 개의 표본이 발견된 이후 지금까지 추가 발견이 되지 않아 멸종되었다고 보는 과학자들도 있었습니다. 2018년에 eBay에 표본이 나왔지만, 언제 잡힌 것인지는 알 수 없었습니다. 사실 이 벌은 1858년 처음 발견된 이후 1981년에야 다시 발견되었을 만큼 찾기 어려운 희귀종입니다. 그런데 시드니 대학과 국제 야생 동물 보호 협회 (Global Wildlife Conservation)의 연구팀이 오랜 수색 끝에 2019년 인도네시아의 오지에서 메가칠레 암컷을 야생 상태에서 발견하는데 성공했습니다.   메가칠레 암컷은 특이하게도 살아있는 흰개미 둥지가 있는 나무에 둥지를 만들고 살아갑니다. 이들의 거대한 턱은 나무의 수지를 모아 둥지를 짓는데 유리합니다. 하지만 워낙 희귀종이라 이들의 생태에 대해서는 거의 알려진 바가 없습니다.  (동영상)...

몸에 철이 많으면 조기 사망 위험도가 높다?

 철분은 인체에 반드시 필요한 미량 원소입니다. 헤모글로빈에 필수적인 물질이기 때문에 철분 부족은 흔히 빈혈을 부르며 반대로 피를 자꾸 잃는 경우에는 철분 부족 현상이 발생합니다. 하지만 철분 수치가 높다는 것은 반드시 좋은 의미는 아닙니다. 모든 일에는 적당한 수준이 있게 마련이고 철 역시 너무 많으면 여러 가지 질병을 일으킬 수 있습니다. 철 대사에 문제가 생겨 철이 과다하게 축적되는 혈색소증 ( haemochromatosis ) 같은 드문 경우가 아니라도 과도한 철분 섭취나 수혈로 인한 철분 과잉은 건강에 문제를 일으킬 수 있습니다. 하지만 높은 철 농도가 수명에 미치는 영향에 대해서는 잘 알려지지 않았습니다.   하버드 대학의 이야스 다글라스( Iyas Daghlas )와 임페리얼 칼리지 런던의 데펜더 길 ( Dipender Gill )은 체내 철 함유량에 영향을 미치는 유전적 변이와 수명의 관계를 조사했습니다. 연구팀은 48972명의 유전 정보와 혈중 철분 농도, 그리고 기대 수명의 60/90%에서 생존 확률을 조사했습니다. 그 결과 유전자로 예측한 혈중 철분 농도가 증가할수록 오래 생존할 가능성이 낮은 것으로 나타났습니다. 이것이 유전자 자체 때문인지 아니면 높은 혈중/체내 철 농도 때문인지는 명확하지 않지만, 높은 혈중 철 농도가 꼭 좋은 뜻이 아니라는 것을 시사하는 결과입니다.   연구팀은 이 데이터를 근거로 건강한 사람이 영양제나 종합 비타민제를 통해 과도한 철분을 섭취할 이유는 없다고 주장했습니다. 어쩌면 높은 철 농도가 조기 사망 위험도를 높일지도 모르기 때문입니다. 그러나 임산부나 빈혈 환자 등 진짜 철분이 필요한 사람들까지 철분 섭취를 꺼릴 필요가 없다는 점도 강조했습니다. 연구 내용은 정상보다 높은 혈중 철농도가 오래 유지되는 경우를 가정한 것으로 본래 철분 부족이 있는 사람을 대상으로 한 것이 아니기 때문입니다. 낮은 철분 농도와 빈혈이 건강에 미치는 악영향은 이미 잘 알려져 있기 때문에 철...

사막에서 식물을 재배하는 온실 Ecodome

 지구 기후가 변해가면서 일부 지역에서는 비가 더 많이 내리지만 반대로 비가 적게 내리는 지역도 생기고 있습니다. 일부 아프리카 개도국에서는 이에 더해서 인구 증가로 인해 식량과 물이 모두 크게 부족한 현상이 지속되고 있습니다. 이를 해결하기 위한 여러 가지 아이디어들이 나오고 있는데, 그 중 하나가 사막 온실입니다.   사막에 온실을 건설한다는 아이디어는 이상해 보이지만, 실제로는 다양한 사막 온실이 식물재배를 위해서 시도되고 있습니다. 사막 온실의 아이디어는 낮과 밤의 일교차가 큰 사막 환경에서 작물을 재배함과 동시에 물이 증발해서 사라지는 것을 막는데 그 중요한 이유가 있습니다.   사막화가 진행 중인 에티오피아의 곤다르 대학( University of Gondar's Faculty of Agriculture )의 연구자들은 사막 온실과 이슬을 모으는 장치를 결합한 독특한 사막 온실을 공개했습니다. 이들은 이를 에코돔( Ecodome )이라고 명명했는데, 아직 프로토타입을 건설한 것은 아니지만 그 컨셉을 공개하고 개발에 착수했다고 합니다.   원리는 간단합니다. 사막에 건설된 온실안에서 작물을 키움니다. 이 작물은 광합성을 하면서 수증기를 밖으로 내보네게 되지만, 온실 때문에 이 수증기를 달아나지 못하고 갖히게 됩니다. 밤이 되면 이 수증기는 다시 응결됩니다. 그리고 동시에 에코돔의 가장 위에 있는 부분이 열리면서 여기로 찬 공기가 들어와 외부 공기에 있는 수증기가 응결되어 에코돔 내부로 들어옵니다. 그렇게 얻은 물은 식수는 물론 식물 재배 모두에 사용 가능합니다.  (에코돔의 컨셉.  출처 : Roots Up)   (동영상)   이 컨셉은 마치 사막 온실과 이슬을 모으는 담수 장치를 합쳐놓은 것이라고 말할 수 있습니다. 물론 실제로도 잘 작동할지는 직접 테스트를 해봐야 알 수...