앞서 설명한 간단한 모델은 사실 일반적으로는 있을 수 없는 모델입니다. 결과 변수에 영향을 미칠 수 있는 다양한 원인 변수는 모두 선형적인 증가를 하는 경우가 드물기 때문입니다. U자형 연관성이나 J 형 혹은 뒤집어진 U자형, J 형, 그리고 갑자기 어느 점을 넘어서면 증가하는 패턴 등 현실적으로는 매우 다양한 패턴이 존재할 수밖에 없습니다. 여기서는 U자형 연관성을 지니는 변수를 하나 더 넣어서 어떤 변화가 생기는지 알아보겠습니다.
set.seed(1234)
x1<-rnorm span="">-rnorm>
x2<-rnorm span="">-rnorm>
x3<-rnorm span="">-rnorm>
b<-rnorm span="">-rnorm>
y=3.0*x1-1.3*x2+(x3-10)^2+b
이 모델에서는 단순하게 Y=(X-a)^2+b의 변수를 넣었습니다. 우리는 이것이 U자형 그래프를 그릴 것이라는 사실을 알고 있습니다. plot 함수를 통해서 이를 직접 확인할 수 있습니다.
y3=(x3-10)^2
plot(x3,y3)
막상 분포를 보면 거의 한쪽으로 치우친 형태로 U자보다는 늘어진 J 패턴에 가깝습니다. 아무튼 단순한 선형 비례 혹은 반비례 관계는 아닙니다. 그래도 전체적으로는 증가하는 패턴이라 변수의 숫자가 적으면 선형 증가 관계 비슷하게 보일 수 있습니다. 앞서 예제처럼 X1에서 범주형 변수인 X4까지 만들어 그래프를 그려 보겠습니다.
set.seed(1234)
x1<-rnorm span="">-rnorm>
x2<-rnorm span="">-rnorm>
x3<-rnorm span="">-rnorm>
b<-rnorm span="">-rnorm>
y=3.0*x1-1.3*x2+(x3-10)^2+b
df1<-data .frame="" span="" x1="" x2="" x3="" y="">-data>
df1$x4="a"
set.seed(1234)
x1<-rnorm span="">-rnorm>
x2<-rnorm span="">-rnorm>
x3<-rnorm span="">-rnorm>
b<-rnorm span="">-rnorm>
y=2.8*x1-1.1*x2+(x3-10)^2+b
df2<-data .frame="" span="" x1="" x2="" x3="" y="">-data>
df2$x4="b"
df3<-rbind df1="" df2="" span="">-rbind>
plot(df3$x1,df3$y)
이렇게 하면 총 200개의 관측치를 지닌 데이터 프레임이 완성됩니다. 여기서는 우리가 알고자 하는 가장 중요한 변수는 x1으로 x1과 y의 관계를 정확히 밝히는 것이 목적이라고 가정합니다. 기본 그래프는 다음과 같이 나타납니다.
아마도 x1과 y 사이에는 선형 비례 관계가 있는 것 같지만, 일부로 여러 변수를 섞어서 정확한 비례 관계를 알기 어렵습니다. x1과 y를 포함한 선형 회귀모델을 보면 분명하게 나타납니다.
model1=lm(y~x1, data=df3)
summary(model1)
par(mfrow=c(2,2))
plot(model1)
Call:
lm(formula = y ~ x1, data = df3)
Residuals:
Min 1Q Median 3Q Max
-88.727 -26.968 -6.707 23.992 154.755
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -456.3604 39.8310 -11.46 <2e-16 span="">2e-16>
x1 7.6268 0.4216 18.09 <2e-16 span="">2e-16>
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Residual standard error: 42.14 on 198 degrees of freedom
Multiple R-squared: 0.6231, Adjusted R-squared: 0.6212
F-statistic: 327.3 on 1 and 198 DF, p-value: < 2.2e-16
x1와 y의 비례 관계는 y=2.9x1이 나와야 하지만, 위의 모델에서 추정한 베타 값은 7.6으로 x1이 1증가할 때 y는 7.6증가한다는 잘못된 결론을 내릴 수 있습니다. 그런데 위의 모델만으로는 사실 잘못된 해석이라는 점을 눈치채기 어렵습니다. 잔차도 역시 그렇게 나쁘지 않아보입니다. 그러면 변수 x2,x3,x4를 모델에 추가해 보겠습니다.
model1=lm(y~x1+x2+x3+factor(x4), data=df3)
summary(model1)
par(mfrow=c(2,2))
plot(model1)
Call:
lm(formula = y ~ x1 + x2 + x3 + factor(x4), data = df3)
Residuals:
Min 1Q Median 3Q Max
-25.648 -9.810 -3.672 6.954 87.986
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -164.3687 29.8502 -5.506 1.15e-07 ***
x1 2.9947 0.2246 13.335 < 2e-16 ***
x2 -1.0033 0.2187 -4.587 8.04e-06 ***
x3 13.2448 0.5897 22.461 < 2e-16 ***
factor(x4)b -5.5035 5.3762 -1.024 0.307
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Residual standard error: 15.81 on 195 degrees of freedom
Multiple R-squared: 0.9478, Adjusted R-squared: 0.9467
F-statistic: 884.6 on 4 and 195 DF, p-value: < 2.2e-16
Adjusted R-squared 값이 크게 올라갔지만, 잔차도의 모습은 문제가 있습니다. 2.99는 비교적 정확한 값이지만, 아직 문제가 다 해결되지 않았습니다. 이유는 간단합니다. x3가 사실 다항식이기 때문이죠. 이는 x3의 분포를 보고 추정해야 하는데, 만약 변수의 숫자가 적거나 한쪽으로 편향된 경우 정확한 관계를 알기 어려운 경우도 많다는 점을 이해해야 합니다. 아무튼 모델에 이차항을 하나 더 넣겠습니다.
model1=lm(y~x1+x2+I(x3^2)+factor(x4), data=df3)
summary(model1)
par(mfrow=c(2,2))
plot(model1)
Call:
lm(formula = y ~ x1 + x2 + I(x3^2) + factor(x4), data = df3)
Residuals:
Min 1Q Median 3Q Max
-19.111 -5.696 -1.497 5.119 57.477
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -68.9056 18.5421 -3.716 0.000264 ***
x1 2.9851 0.1441 20.717 < 2e-16 ***
x2 -1.0607 0.1404 -7.553 1.61e-12 ***
I(x3^2) 0.4304 0.0111 38.762 < 2e-16 ***
factor(x4)b 2.3877 3.4309 0.696 0.487294
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Residual standard error: 10.15 on 195 degrees of freedom
Multiple R-squared: 0.9785, Adjusted R-squared: 0.978
F-statistic: 2216 on 4 and 195 DF, p-value: < 2.2e-16
이차항을 넣었는데도 당황스럽게 잔차도는 문제가 있습니다. 이유는 일차항을 뺐기 때문입니다. 앞서 설명했듯이 I(x3^2)이 아니라 x3+I(x3^2)로 추가해야 합니다. 그 이유는 y=(x-a)^2+b의 이차 방정식을 펼쳐보면 나옵니다. 펼치면 결국 y는 x^2과 x 항 모두를 지니기 때문이죠. 한번 일차항을 같이 넣어보겠습니다.
model1=lm(y~x1+x2+x3+I(x3^2)+factor(x4), data=df3)
summary(model1)
par(mfrow=c(2,2))
plot(model1)
Call:
lm(formula = y ~ x1 + x2 + x3 + I(x3^2) + factor(x4), data = df3)
Residuals:
Min 1Q Median 3Q Max
-16.7708 -3.1052 0.0356 3.4255 11.0779
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 90.59256 11.79865 7.678 7.73e-13 ***
x1 3.04989 0.07450 40.937 < 2e-16 ***
x2 -1.05117 0.07256 -14.486 < 2e-16 ***
x3 -19.77503 0.85380 -23.161 < 2e-16 ***
I(x3^2) 0.99493 0.02504 39.730 < 2e-16 ***
factor(x4)b -2.43313 1.78486 -1.363 0.174
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Residual standard error: 5.243 on 194 degrees of freedom
Multiple R-squared: 0.9943, Adjusted R-squared: 0.9941
F-statistic: 6749 on 5 and 194 DF, p-value: < 2.2e-16
이제 정확한 결과가 나왔습니다. x3가 베타 값이 -19가 나온 것은 -2ax3의 형태로 풀리기 때문입니다. 2차항의 베타 값은 거의 1이 나와 정확했고 나머지 값도 괜찮고 잔차도도 훨씬 좋아보입니다.
여기서는 쉽게 모델을 만들어 검증했지만, 현실에서는 그렇게 쉽지 않은 것이 보통입니다. 여러 모델을 검토하고 다항식도 넣고 변수도 변환시켜 그 값을 비교하는 과정이 필요합니다. 세상에 쉽고 간단한 일은 없는 법이죠.
댓글
댓글 쓰기