요즘 핫한 분야라고 할 수 있는 인공 지능은 사실 데이터 분석과 불가분의 관계에 있습니다. 인공 지능과 통계적 방법을 이용한 예측 모델이 완전히 같은 것은 아니지만, 상당히 같은 내용을 공유하고 있으며 신경망을 비롯한 여러 가지 인공 지능 방법론에서 다양한 통계적 기법이 사용됩니다. 결국 상당수의 인공지능 개발은 데이터를 적절하게 분류하고 학습을 통해서 예측을 하는 것인데, 당연히 통계 분석에 사용되는 언어인 R 역시 이와 관련된 많은 패키지를 가지고 있습니다. 제가 인공 지능 관련 전문가는 아니지만, 여기에 대해서 간단한 포스팅은 해볼 수 있을 것 같습니다. 개인적으로는 신경망을 이용한 질병 예측 모델을 만들어 보면 어떨까 생각하고 있습니다.
R 자체에서 지원하는 인공지능 관련 패키지의 숫자는 매우 많고 사실 인공지능 방법론 자체가 매우 다양하지만, 여기서는 인공 신경망 (Neural Network)에 대해서만 이야기해 보겠습니다. 앞서 소개한 것처럼 요즘 인공지능 분야에서 인기가 좋은 텐서플로를 R과 함께 사용할수도 있으며 JAVA 기반인 H2O 역시 사용이 가능합니다.
하지만 우선은 가장 간단하게 사용할 수 있는 R 패키지에서 시작해 보겠습니다. neuralnet은 설정이 간단하고 파이선이나 자바 처럼 다른 언어와 패키지 설치없이 바로 시작할 수 있어 처음 진행하기에 적합할 것 같습니다. R 스튜디오에서 neuralnet을 설치한 후 간단한 예제를 실행하겠습니다. ?neuralnet을 통해서 뉴럴넷의 설명을 볼 수 있습니다.
Training of neural networks
Description
neuralnet is used to train neural networks using backpropagation, resilient backpropagation (RPROP) with (Riedmiller, 1994) or without weight backtracking (Riedmiller and Braun, 1993) or the modified globally convergent version (GRPROP) by Anastasiadis et al. (2005). The function allows flexible settings through custom-choice of error and activation function. Furthermore the calculation of generalized weights (Intrator O. and Intrator N., 1993) is implemented.
Usage
neuralnet(formula, data, hidden = 1, threshold = 0.01,
stepmax = 1e+05, rep = 1, startweights = NULL,
learningrate.limit = NULL,
learningrate.factor = list(minus = 0.5, plus = 1.2),
learningrate=NULL, lifesign = "none",
lifesign.step = 1000, algorithm = "rprop+",
err.fct = "sse", act.fct = "logistic",
linear.output = TRUE, exclude = NULL,
constant.weights = NULL, likelihood = FALSE)
읽어볼만한 글 (한글 번역)
(neuralnet: Train and Test Neural Networks Using R)
앞서 살펴본 선형 회귀 모델을 통한 예측과 신경망을 통한 예측을 비교하기 위해 일단 간단한 선형 회귀 모형을 만들어 보겠습니다. y=3x+b의 모델을 선형 회귀 분선으로 파악하는 경우입니다.
x<-seq span="">-seq>
set.seed(4567)
b<-rnorm span="">-rnorm>
y=3*x+b
y
model=lm(y~x)
summary(model)
> model=lm(y~x)
> summary(model)
Call:
lm(formula = y ~ x)
Residuals:
Min 1Q Median 3Q Max
-9.6178 -2.9339 -0.3645 2.8352 7.7280
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 22.05412 1.20779 18.26 <2e-16 span="">2e-16>
x 2.96272 0.04122 71.87 <2e-16 span="">2e-16>
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Residual standard error: 4.206 on 48 degrees of freedom
Multiple R-squared: 0.9908, Adjusted R-squared: 0.9906
F-statistic: 5166 on 1 and 48 DF, p-value: < 2.2e-16
회귀 모델은 y=2.96x + 22.05로 나오는데 당연히 현실에서는 볼 수 없는 데이터이지만, 아무튼 상당히 정확하게 예측할 수 있습니다. 신경망으로 예측하면 어떤 결과가 나올까요. 이를 위해 y,x 값 및 모델에서 예측하는 값 (pred), 실제값 (y)와 예측값의 차이 (error)를 지닌 데이터 프레임을 만들어 보겠습니다.
data1<-as .data.frame="" span="" x="">-as>
data2<-as .data.frame="" span="" y="">-as>
data3<-cbind data1="" data2="" span="">-cbind>
data3$pred=2.96*data3$x+22
data3$error=data3$pred-data3$y
summary(data3)
> summary(data3)
x y pred error
Min. : 1.00 Min. : 19.32 Min. : 24.96 Min. :-7.8664
1st Qu.:13.25 1st Qu.: 62.55 1st Qu.: 61.22 1st Qu.:-3.0076
Median :25.50 Median :102.25 Median : 97.48 Median : 0.2288
Mean :25.50 Mean : 97.60 Mean : 97.48 Mean :-0.1235
3rd Qu.:37.75 3rd Qu.:132.80 3rd Qu.:133.74 3rd Qu.: 2.7574
Max. :50.00 Max. :173.64 Max. :170.00 Max. : 9.5120
이제 뉴럴넷을 이용해서 신경망으로 학습을 시켜서 예측한 값과 비교해 보겠습니다.
fit<-neuralnet data="data3," hidden="c(3,3)," stepmax="1e6) </span" threshold="0.1" x="" y="">-neuralnet>
pred<-compute fit="" span="" x="">-compute>
이 과정은 시간이 좀 걸릴 수 있습니다. hidden = c(3,3) 은 뉴런 3개씩을 배치한 매우 단순한 모델임을 의미합니다. 기본적으로 뉴런의 숫자와 층, 그리고 뉴런에서 다음으로 전파되는 역치 (threshold), stepmax 등이 가장 기본적인 파라미터이며 나머지는 위에서 보여준 기본 값으로 들어가게 됩니다. 아무튼 이렇게 예측한 값을 바로 확인해 보겠습니다.
data4<-as .data.frame="" net.result="" pred="" span="">-as>
data5<-cbind data3="" data4="" span="">-cbind>
이렇게 하면 신경망으로 예측한 값이 V1이라는 변수에 저장됩니다. 역시 이 값과 실제값의 차이를 비교해서 error2에 저장해 보겠습니다.
대충보니 신경망으로 예측한 값이 선형 회귀 모델로 예측한 값보다 실제값에 더 가까운 것 같지만, 일일이 판단이 어려울 수 있습니다. 에러값이 작을 수록 예측을 잘한 경우로 생각하고 서로 비교를 해보겠습니다. 에러의 절대값이 적은편이 더 우수한 방법이겠죠. 회귀모델이 차이가 더 크면 1, 작으면 0으로 표시해 보겠습니다.
data5$pred3=ifelse(abs(data5$error)>abs(data5$error2),1,0)
table(data5$pred3)
> table(data5$pred3)
0 1
25 25
의외로 결과는 반반입니다. 값을 조금 바꾸면 어떨까요?
fit<-neuralnet data="data3," hidden="c(3,3)," stepmax="1e7) </span" threshold="0.06" x="" y="">-neuralnet>
pred<-compute fit="" span="" x="">-compute>
data4<-as .data.frame="" net.result="" pred="" span="">-as>
data5<-cbind data3="" data4="" span="">-cbind>
data5$error2=data5$V1-data5$y
summary(data5)
data5$pred3=ifelse(abs(data5$error)>abs(data5$error2),1,0)
table(data5$pred3)
> table(data5$pred3)
0 1
20 30
이제는 신경망이 더 유리해졌습니다. 신경망은 여러 가지 파라미터를 조절해서 다른 결과를 얻을 수 있지만, 종종 결과를 내놓지 못하거나 혹은 결과값이 이상하게 수렴하는 경우가 나올 수 있습니다. stepmax을 조정해주지 않으면 에러가 나는 경우도 드물지 않습니다. stepmax는 신경망에서 훈련 시킬 최대 단계를 지정해주는 것으로(the maximum steps for the training of the neural network.) 너무 낮으면 다음의 에러가 생성됩니다.
Warning message:
algorithm did not converge in 1 of 1 repetition(s) within the stepmax
이런 메세지가 나오면 stepmax 값을 늘려야 합니다. 해보면 의외로 원하는 결과를 얻기 어렵다는 사실을 알 수 있습니다. 아무튼 비교적 간단하게 시작할 수 있는 신경망인데, 사실 많은 것이 누락된 설명입니다. 물론 예제 역시 현실에서 보기 어려운 것이죠. 뉴럴넷을 이용한 신경망에 대해서 다음에 좀 더 자세히 이야기 해보겠습니다.
댓글
댓글 쓰기