기본 콘텐츠로 건너뛰기

다중선형회귀 분석 (1)



 일반적으로 우리 주변에서 일어나는 현상은 여러 가지 원인이 복합적으로 작용해서 생기게 됩니다. 물론 중력처럼 질량과 거리 이외에 다른 요소 (예를 들어 화학 구성)는 작용하지 않는 경우도 있지만, 당뇨나 고혈압의 발생, 빈부 격차의 이유 등 여러 가지 자연 혹은 사회 현상은 매우 다양한 요인에 의해 발생합니다. 따라서 독립변수와 종속변수와의 관계를 정확히 알기 위해서는 종속변수에 영향을 줄 수 있는 다양한 변수를 통제해야 합니다. 


 예를 들어 대학 시절 성적과 졸업 후 10년, 20년 후 수입의 관계를 분석하고 싶다면 소득에 영향을 미칠 수 있는 다양한 변수들 - 본래 가구 소득, 전공, 성별, 나이 - 등이 미치는 영향을 통제하지 않는다면 성적과 수입의 관계를 객관적으로 증명할 수 없을 것입니다. 따라서 이를 통계적으로 보정하는 방법이 널리 쓰이고 있는데, 다중선형회귀 (multiple linear regression)도 그 중 하나입니다. 물론 기본적으로 여러 변수가 결과에 미치는 영향을 알아내기 위한 것이지만, 다른 혼란 변수의 영향을 보정할 수 있기 때문입니다. 


 자세한 통계적인 설명은 하지 않겠지만, 간단한 다중선형회귀 모형을 모델링하면서 설명해 보겠습니다. 일단 가상 모델을 만들기 위해 x1, x2, x3의 세 가지 변수를 임의로 만들어보겠습니다. 


set.seed(1234)
x1<-rnorm span="">
x2<-rnorm span="">
x3<-rnorm span="">
b<-rnorm span="">
y=3*x1+1.5*x2+1.7*x3+b


 각각의 변수는 30개씩 묶여 있으며 결과 변수와 각각 3배, 1.5배 1.7배의 선형 비례 관계를 지니고 있습니다. 물론 실제로 이런 단순한 관계는 현실에서는 보기 어려우며 이해를 돕기 위한 시뮬레이션이라고 설명할 수 있을 것입니다. 아무튼 결과 변수 (종속 변수) y에 영향을 미치는 독립 변수 x가 3개인 모델인데 만약 lm(y~x1) 모델을 만들면 정확한 회귀 계수를 추정하기 어려울 것입니다. 이 경우 간단하게 model=lm(y~x1+x2+x3)을 만들어 각각의 회귀 계수를 추정하고 다른 독립 변수의 영향력을 보정할 수 있습니다. 실제 그 차이를 알아보기 위해 모델을 확인해 봅니다. 


require("olsrr")

model=lm(y~x1)
summary(model)
par(mfrow=c(2,2))
plot(model)

influence.measures(model)
ols_plot_cooksd_bar(model)
ols_plot_dfbetas(model)
ols_plot_dffits(model)

model=lm(y~x1+x2+x3)
summary(model)
par(mfrow=c(2,2))
plot(model)

influence.measures(model)
ols_plot_cooksd_bar(model)
ols_plot_dfbetas(model)
ols_plot_dffits(model)


 위의 코드를 실행시키면 사실 잔차도나 이상치는 엄청난 차이가 나지 않지만 summary에서 분명한 차이점을 발견할 수 있습니다. 


> model=lm(y~x1)
> summary(model)

Call:
lm(formula = y ~ x1)

Residuals:
   Min     1Q Median     3Q    Max 
-36.34 -14.44  -0.90  15.47  37.91 

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept) 116.3979    71.5144   1.628 0.114809    
x1            3.4529     0.8069   4.279 0.000198 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 19.62 on 28 degrees of freedom
Multiple R-squared:  0.3954, Adjusted R-squared:  0.3738 
F-statistic: 18.31 on 1 and 28 DF,  p-value: 0.0001979

> model=lm(y~x1+x2+x3)
> summary(model)

Call:
lm(formula = y ~ x1 + x2 + x3)

Residuals:
    Min      1Q  Median      3Q     Max 
-7.0906 -2.8166  0.2851  2.1145  9.5671 

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept) 29.02510   18.89307   1.536    0.137    
x1           2.60382    0.17270  15.077 2.29e-14 ***
x2           1.36528    0.16145   8.456 6.15e-09 ***
x3           1.70894    0.08153  20.961  < 2e-16 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 4.036 on 26 degrees of freedom
Multiple R-squared:  0.9762, Adjusted R-squared:  0.9735 
F-statistic: 356.1 on 3 and 26 DF,  p-value: < 2.2e-16


독립 변수를 하나만 지정한 모델 (model=lm(y~x1))은 Adjusted R-squared 값도  0.3738 정도로 낮고 회귀 계수 추정도 3.45로 다소 어긋난 반면 다른 변수를 보정한 모델은 (model=lm(y~x1+x2+x3)) Adjusted R-squared 값이 0.9735로 매우 높고 회귀 계수도 3에 좀 더 가까운 편입니다. 따라서 모델의 설명력이 매우 높은 모델입니다. 이 예제는 회귀 계수 추정이 생각보다 차이가 크지 않지만, 더 복잡한 데이터에서는 생각보다 큰 차이가 날 수 있습니다. 


 독립 변수는 연속 변수 형태인 경우도 있지만, 남성과 여성, 인종 같이 범주형 자료인 경우도 있습니다. 이 경우 모델에 이를 포함시키지 않는다면 상당히 왜곡된 결과를 얻을 수도 있습니다. 연속 변수가 아닌 범주형 변수를 하나 추가해 분석을 해보겠습니다. 이를 위해 데이터 프레임 data.frame 함수를 이용해서 데이터 프레임으로 만들고 여기서 x4라는 변수에 a,b 두 가지 범주를 넣어보겠습니다. 


set.seed(1234)
x1<-rnorm span="">
x2<-rnorm span="">
x3<-rnorm span="">
b<-rnorm span="">
y=3*x1+1.5*x2+1.7*x3+b

df1<-data .frame="" span="" x1="" x2="" x3="" y="">
df1$x4="a"

set.seed(1234)
x1<-rnorm span="">
x2<-rnorm span="">
x3<-rnorm span="">
b<-rnorm span="">
y=2.8*x1+1.3*x2+1.6*x3+b

df2<-data .frame="" span="" x1="" x2="" x3="" y="">
df2$x4="b"

df3<-rbind df1="" df2="" span="">

 x4라는 가상의 변수는 서로 약간 다른 회귀 계수를 지닌 두 개의 데이터 프레임을 합쳐 만들었습니다. 그리고 이렇게 범주형 자료인 경우 factor()를 이용해서 지정해주면 lm 함수에서 인식할 수 있습니다. 


model1=lm(y~x1+x2+x3+factor(x4), data=df3)
summary(model1)
par(mfrow=c(2,2))
plot(model1)

model2=lm(y~x1+x2+x3, data=df3)
summary(model2)
par(mfrow=c(2,2))
plot(model2)


 결과는 극명하게 차이가 나는 것으로 나옵니다. 



> model1=lm(y~x1+x2+x3+factor(x4), data=df3)
> summary(model1)

Call:
lm(formula = y ~ x1 + x2 + x3 + factor(x4), data = df3)

Residuals:
    Min      1Q  Median      3Q     Max 
-8.8316 -2.8166  0.0721  1.7924 10.0919 

Coefficients:
             Estimate Std. Error t value Pr(>|t|)    
(Intercept)  49.38998   15.00658   3.291  0.00175 ** 
x1            2.70382    0.12220  22.125  < 2e-16 ***
x2            1.46528    0.11424  12.826  < 2e-16 ***
x3            1.75894    0.05769  30.489  < 2e-16 ***
factor(x4)b -38.01016    1.96103 -19.383  < 2e-16 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 4.039 on 55 degrees of freedom
Multiple R-squared:  0.995, Adjusted R-squared:  0.9947 
F-statistic:  2749 on 4 and 55 DF,  p-value: < 2.2e-16


> model2=lm(y~x1+x2+x3, data=df3)
> summary(model2)

Call:
lm(formula = y ~ x1 + x2 + x3, data = df3)

Residuals:
    Min      1Q  Median      3Q     Max 
-34.680  -5.284   1.194   7.754  21.663 

Coefficients:
             Estimate Std. Error t value Pr(>|t|)    
(Intercept) -197.9125    21.9081  -9.034 1.59e-12 ***
x1             4.1547     0.2679  15.510  < 2e-16 ***
x2             2.7594     0.2571  10.733 3.31e-15 ***
x3             1.7401     0.1600  10.878 1.99e-15 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 11.2 on 56 degrees of freedom
Multiple R-squared:  0.961, Adjusted R-squared:  0.9589 
F-statistic: 460.3 on 3 and 56 DF,  p-value: < 2.2e-16

 
 x4를 포함한 경우 회귀 계수는 본래 값과 비교적 유사하게 나오지만, 포함하지 않은 경우 매우 이상하게 나오게 됩니다. 영향을 미칠 수 있는 다양한 변수를 통제하지 못할수록 정확한 결론을 내기 어려워지는 것입니다. 따라서 이 경우 x4를 포함한 모델이 더 우수하다는 결론이 나옵니다. 하지만 실제 통계 분석에서는 이렇게 본래 회귀 계수를 알 수 없는 경우가 대부분입니다. 이 경우 어떤 모델이 더 좋은지 어떻게 알 수 있을까요. anova를 통해 모델 간 비교가 가능합니다. 


> anova(model1, model2)
Analysis of Variance Table

Model 1: y ~ x1 + x2 + x3 + factor(x4)
Model 2: y ~ x1 + x2 + x3
  Res.Df    RSS Df Sum of Sq      F    Pr(>F)    
1     55  897.2                                  
2     56 7025.8 -1   -6128.5 375.69 < 2.2e-16 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1


 두 모델을 비교한 결과 유의한 차이가 있는 것으로 나왔기 때문에 x4를 포함했을 때 유의미한 차이가 있다고 말할 수 있습니다. 만약 차이가 없는 것으로 나오면 간결함 모델이 더 좋은 모델이므로 변수가 더 적은 모델을 선택하면 됩니다. 이 해석에 대해서는 앞으로 더 다룰 기회가 있을 것입니다. 



댓글

이 블로그의 인기 게시물

통계 공부는 어떻게 하는 것이 좋을까?

 사실 저도 통계 전문가가 아니기 때문에 이런 주제로 글을 쓰기가 다소 애매하지만, 그래도 누군가에게 도움이 될 수 있다고 생각해서 글을 올려봅니다. 통계학, 특히 수학적인 의미에서의 통계학을 공부하게 되는 계기는 사람마다 다르긴 하겠지만, 아마도 비교적 흔하고 난감한 경우는 논문을 써야 하는 경우일 것입니다. 오늘날의 학문적 연구는 집단간 혹은 방법간의 차이가 있다는 것을 객관적으로 보여줘야 하는데, 그려면 불가피하게 통계적인 방법을 쓸 수 밖에 없게 됩니다. 이런 이유로 분야와 주제에 따라서는 아닌 경우도 있겠지만, 상당수 논문에서는 통계학이 들어가게 됩니다.   문제는 데이터를 처리하고 분석하는 방법을 익히는 데도 상당한 시간과 노력이 필요하다는 점입니다. 물론 대부분의 학과에서 통계 수업이 들어가기는 하지만, 그것만으로는 충분하지 않은 경우가 많습니다. 대학 학부 과정에서는 대부분 논문 제출이 필요없거나 필요하다고 해도 그렇게 높은 수준을 요구하지 않지만, 대학원 이상 과정에서는 SCI/SCIE 급 논문이 필요하게 되어 처음 논문을 작성하는 입장에서는 상당히 부담되는 상황에 놓이게 됩니다.  그리고 이후 논문을 계속해서 쓰게 될 경우 통계 문제는 항상 나를 따라다니면서 괴롭히게 될 것입니다.  사정이 이렇다보니 간혹 통계 공부를 어떻게 하는 것이 좋겠냐는 질문이 들어옵니다. 사실 저는 통계 전문가라고 하기에는 실력은 모자라지만, 대신 앞서서 삽질을 한 경험이 있기 때문에 몇 가지 조언을 해줄 수 있을 것 같습니다.  1. 입문자를 위한 책을 추천해달라  사실 예습을 위해서 미리 공부하는 것은 추천하지 않습니다. 기본적인 통계는 학과별로 다르지 않더라도 주로 쓰는 분석방법은 분야별로 상당한 차이가 있을 수 있어 결국은 자신이 주로 하는 부분을 잘 해야 하기 때문입니다. 그러기 위해서는 학과 커리큘럼에 들어있는 통계 수업을 듣는 것이 더 유리합니다...

9000년 전 소녀의 모습을 복원하다.

( The final reconstruction. Credit: Oscar Nilsson )  그리스 아테나 대학과 스웨덴 연구자들이 1993년 발견된 선사 시대 소녀의 모습을 마치 살아있는 것처럼 복원하는데 성공했습니다. 이 유골은 그리스의 테살리아 지역의 테오페트라 동굴 ( Theopetra Cave )에서 발견된 것으로 연대는 9000년 전으로 추정됩니다. 유골의 주인공은 15-18세 사이의 소녀로 정확한 사인은 알 수 없으나 괴혈병, 빈혈, 관절 질환을 앓고 있었던 것으로 확인되었습니다.   이 소녀가 살았던 시기는 유럽 지역에서 수렵 채집인이 초기 농경으로 이전하는 시기였습니다. 다른 시기와 마찬가지로 이 시기의 사람들도 젊은 시절에 다양한 질환에 시달렸을 것이며 평균 수명 역시 매우 짧았을 것입니다. 비록 젊은 나이에 죽기는 했지만, 당시에는 이런 경우가 드물지 않았을 것이라는 이야기죠.   아무튼 문명의 새벽에 해당하는 시점에 살았기 때문에 이 소녀는 Dawn (그리스어로는  Avgi)라고 이름지어졌다고 합니다. 연구팀은 유골에 대한 상세한 스캔과 3D 프린팅 기술을 적용해서 살아있을 당시의 모습을 매우 현실적으로 복원했습니다. 그리고 그 결과 나타난 모습은.... 당시의 거친 환경을 보여주는 듯 합니다. 긴 턱은 당시를 살았던 사람이 대부분 그랬듯이 질긴 먹이를 오래 씹기 위한 것으로 보입니다.   강하고 억센 10대 소녀(?)의 모습은 당시 살아남기 위해서는 강해야 했다는 점을 말해주는 듯 합니다. 이렇게 억세보이는 주인공이라도 당시에는 전염병이나 혹은 기아에서 자유롭지는 못했기 때문에 결국 평균 수명은 길지 못했겠죠. 외모 만으로 평가해서는 안되겠지만, 당시의 거친 시대상을 보여주는 듯 해 흥미롭습니다.   참고  https://phys.org/news/2018-01-te...

150년 만에 다시 울린 희귀 곤충의 울음 소리

  ( The katydid Prophalangopsis obscura has been lost since it was first collected, with new evidence suggesting cold areas of Northern India and Tibet may be the species' habitat. Credit: Charlie Woodrow, licensed under CC BY 4.0 ) ( The Museum's specimen of P. obscura is the only confirmed member of the species in existence. Image . Credit: The Trustees of the Natural History Museum, London )  과학자들이 1869년 처음 보고된 후 지금까지 소식이 끊긴 오래 전 희귀 곤충의 울음 소리를 재현하는데 성공했습니다. 프로팔랑곱시스 옵스큐라 ( Prophalangopsis obscura)는 이상한 이름만큼이나 이상한 곤충으로 매우 희귀한 메뚜기목 곤충입니다. 친척인 여치나 메뚜기와는 오래전 갈라진 독자 그룹으로 매우 큰 날개를 지니고 있으며 인도와 티벳의 고산 지대에 사는 것으로 보입니다.   유일한 표본은 수컷 성체로 2005년에 암컷으로 생각되는 2마리가 추가로 발견되긴 했으나 정확히 같은 종인지는 다소 미지수인 상태입니다. 현재까지 확실한 표본은 수컷 성체 한 마리가 전부인 미스터리 곤충인 셈입니다.   하지만 과학자들은 그 형태를 볼 때 이들 역시 울음 소리를 통해 짝짓기에서 암컷을 유인했을 것으로 보고 있습니다. 그런데 높은 고산 지대에서 먼 거리를 이동하는 곤충이기 때문에 낮은 피치의 울음 소리를 냈을 것으로 보입니다. 문제는 이런 소리는 암컷 만이 아니라 박쥐도 잘 듣는다는 것입니다. 사실 이들은 중생대 쥐라기 부터 존재했던 그룹으로 당시에는 박쥐가 없어 이런 방식이 잘 통했을 것입니다. 하지만...