기본 콘텐츠로 건너뛰기

R을 이용해 간단한 신경망 만들기 (2)



 뉴럴넷 패키지는 비교적 단순하기는 하지만 시각화 기능도 제공합니다. 앞서 간단한 예제에서 좀 더 다양한 기능을 알아보겠습니다. 기본 여제는 동일합니다. 


x<-seq span="">
set.seed(4567)
b<-rnorm span="">
y=3*x+b
y

model=lm(y~x)
summary(model)

data1<-as .data.frame="" span="" x="">
data2<-as .data.frame="" span="" y="">
data3<-cbind data1="" data2="" span="">

data3$pred=2.96*data3$x+22
data3$error=data3$pred-data3$y
summary(data3)


 뉴럴넷 패키지를 불러내 예제를 실행시킵니다. 


library(neuralnet)

fit<-neuralnet data="data3," fit2="" hidden="c(3,3)," span="" stepmax="1e6)" threshold="0.08" x="" y="">
pred<-compute fit="" span="" x="">

시각화는 간단히 plot으로 할 수 있습니다. 

plot(fit)




 이 그림에서 알 수 있는 사실은 입력 (x)는 하나 뿐이고 출력도 하나 뿐이며 (y) 은닉층은 2개이고 총 240762단계를 거쳐 적합했다는 사실입니다. 에러의 합도 볼 수 있습니다. 다만 숫자는 해석이 좀 어려운데 뉴런 간의 양 혹은 음의 상관성을 보여줍니다. 솔직히 말하면 알고리즘을 개선하는데 그렇게 큰 도움이 되는 것 같지는 않습니다. 다만 에러가 작고 단계가 작은 모델이 더 빠르고 정확할 것입니다. 아무튼 여기서 간단한 방법으로 신경망을 더 깊게 만들 수 있습니다. DNN (Deep Neural Network)의 층을 깊게 만드는 방법은 그냥 한 층 더 써주는 것 뿐입니다. 


fit2<-neuralnet data="data3," hidden="c(3,3,3)," stepmax="1e6) </span" threshold="0.08" x="" y="">
pred<-compute fit2="" span="" x="">

> fit2<-neuralnet data="data3," hidden="c(3,3,3)," stepmax="1e6) </span" threshold="0.08" x="" y="">
Warning message:
algorithm did not converge in 1 of 1 repetition(s) within the stepmax 


 이런 메세지가 뜨면 stepmax 값을 조정해 주어야 합니다. 


 fit2<-neuralnet data="data3," hidden="c(3,3,3)," stepmax="1e7) </span" threshold="0.08" x="" y="">


 그런데 이렇게 해보면 결국 값을 찾지 못하고 계속해서 시간을 끄는 것을 볼 수 있습니다. 이렇게 간단한 예제를 실행하는데 상당히 오랜 시간이 걸린다면 솔직히 좋은 방법이 아닌 것이죠. 이 경우 은닉층 (hidden)의 숫자를 줄이는 것이 합리적인 해결책입니다. 


 은닉층의 수를 늘려 더 깊은 (deep) 신경망을 만드는 것은 복잡한 데이터를 분류하는데 도움이 되기도 하지만 결국 더 많은 연산 능력을 요구할 뿐 아니라 경우에 따라서는 원하는 답을 찾지 못하고 시간을 끄는 문제를 만들 수 있습니다. 딥러닝이라고 해서 무조건 뉴런의 수를 늘리고 층을 많이 만드는 것은 단순히 시간 낭비에서 끝나지 않고 성능을 떨어뜨리는 결과를 가져올 수 있습니다. 


 아무튼 여기서 뉴럴넷의 기본 옵션을 더 확장해서 사용해 보겠습니다. 


f=y~x

fit<-neuralnet f="" span="">
               data=data3, 
               hidden=c(3,3),
               algorithm = "rprop+",
               err.fct = "sse",
               act.fct = "logistic",
               threshold = 0.08,
               stepmax=1e6,
               linear.output = TRUE)

fit

plot(fit)


 모델의 공식은 neuralnet() 안에 넣을 수도 있지만, 만약 복잡한 모델을 사용하는 경우 f=y~x+.... 하는 식으로 만들어 넣는 것도 더 간결한 모델을 위한 방법입니다. 알고리즘의 경우 기본적인 역전파 알고리즘 (backprop)보다 더 강건한 알고리즘인 resilient backpropagation with backtracking (rprop+) 이 기본이고 오차 함수 (err.fct)는 기본이 sse (sum of squared errors) 입니다. 마지막으로 임계치 0.08에 로지스틱 함수가 적용되고 stepmax는 1e5가 기본이지만, 1e6을 쓰는 것이 더 좋기 때문에 수정했습니다. 


algorithm
a string containing the algorithm type to calculate the neural network. The following types are possible: 'backprop', 'rprop+', 'rprop-', 'sag', or 'slr'. 'backprop' refers to backpropagation, 'rprop+' and 'rprop-' refer to the resilient backpropagation with and without weight backtracking, while 'sag' and 'slr' induce the usage of the modified globally convergent algorithm (grprop). 

err.fct
a differentiable function that is used for the calculation of the error. Alternatively, the strings 'sse' and 'ce' which stand for the sum of squared errors and the cross-entropy can be used.

act.fct
a differentiable function that is used for smoothing the result of the cross product of the covariate or neurons and the weights. Additionally the strings, 'logistic' and 'tanh' are possible for the logistic function and tangent hyperbolicus.


 기본 옵션은 당연히 가장 좋은 결과를 가져올 것으로 예상되는 것들의 모임이기 때문에 수정해도 더 좋은 결과를 얻기는 어렵지만, 경우에 따라 수정하는 것이 더 유리할수도 있습니다. 위의 코드를 실행하면 여러 가지 결과를 얻을 수 있습니다. 아무튼 결론은 아래와 같은 것이죠. 

$data
    x            y   pred         error
1   1  19.32087507  24.96  5.6391249299
2   2  21.48726966  27.92  6.4327303370
3   3  30.26207572  30.88  0.6179242799
4   4  35.07512927  33.84 -1.2351292690
5   5  41.77267197  36.80 -4.9726719682
6   6  46.01159271  39.76 -6.2515927149
7   7  43.21601820  42.72 -0.4960181969
8   8  45.05702925  45.68  0.6229707451
9   9  45.23831404  48.64  3.4016859563
10 10  57.63100882  51.60 -6.0310088222
11 11  60.59327016  54.56 -6.0332701591
12 12  62.15587921  57.52 -4.6358792125
13 13  57.29347172  60.48  3.1865282758
14 14  63.74009627  63.44 -0.3000962681
15 15  65.51689005  66.40  0.8831099451
16 16  69.73028132  69.36 -0.3702813150
17 17  71.87927221  72.32  0.4407277887
18 18  78.99739051  75.28 -3.7173905083
19 19  68.72797008  78.24  9.5120299247
20 20  72.78345121  81.20  8.4165487874
21 21  83.92176640  84.16  0.2382335953
22 22  85.06538727  87.12  2.0546127307
23 23  88.73498412  90.08  1.3450158799
24 24  95.38498261  93.04 -2.3449826076
25 25 103.60640064  96.00 -7.6064006413
26 26 103.78633665  98.96 -4.8263366466
27 27 100.89600437 101.92  1.0239956334
28 28 105.52632525 104.88 -0.6463252532
29 29 107.09607757 107.84  0.7439224349
30 30 108.25762910 110.80  2.5423708974
31 31 121.62643622 113.76 -7.8664362212
32 32 115.42910107 116.72  1.2908989302
33 33 116.61657742 119.68  3.0634225792
34 34 127.87461446 122.64 -5.2346144593
35 35 129.38990366 125.60 -3.7899036572
36 36 122.48552181 128.56  6.0744781930
37 37 126.29130943 131.52  5.2286905742
38 38 133.94008492 134.48  0.5399150841
39 39 137.22070921 137.44  0.2192907912
40 40 140.97469733 140.40 -0.5746973328
41 41 139.44565008 143.36  3.9143499243
42 42 147.52457677 146.32 -1.2045767736
43 43 152.29635326 149.28 -3.0163532649
44 44 146.52300615 152.24  5.7169938456
45 45 158.18120293 155.20 -2.9812029311
46 46 160.60867608 158.16 -2.4486760753
47 47 163.04301396 161.12 -1.9230139580
48 48 161.12585790 164.08  2.9541421018
49 49 173.63881825 167.04 -6.5988182540
50 50 167.17087291 170.00  2.8291270883


 신경망이 어느 정도 실제와 유사한 값을 예측하기는 하지만, 이보다 더 성능을 향상시키기 위해 여기서 적극 노력할 필요는 없을 것입니다. 실제 현실에서 보기 힘든 예제이기 때문이죠. 다음에는 좀 더 현실적인 예제를 다뤄보겠습니다. 

댓글

이 블로그의 인기 게시물

세상에서 가장 큰 벌

( Wallace's giant bee, the largest known bee species in the world, is four times larger than a European honeybee(Credit: Clay Bolt) ) (Photographer Clay Bolt snaps some of the first-ever shots of Wallace's giant bee in the wild(Credit: Simon Robson)  월리스의 거대 벌 (Wallace’s giant bee)로 알려진 Megachile pluto는 매우 거대한 인도네시아 벌로 세상에서 가장 거대한 말벌과도 경쟁할 수 있는 크기를 지니고 있습니다. 암컷의 경우 몸길이 3.8cm, 날개너비 6.35cm으로 알려진 벌 가운데 가장 거대하지만 수컷의 경우 이보다 작아서 몸길이가 2.3cm 정도입니다. 아무튼 일반 꿀벌의 4배가 넘는 몸길이를 지닌 거대 벌이라고 할 수 있습니다.   메가칠레는 1981년 몇 개의 표본이 발견된 이후 지금까지 추가 발견이 되지 않아 멸종되었다고 보는 과학자들도 있었습니다. 2018년에 eBay에 표본이 나왔지만, 언제 잡힌 것인지는 알 수 없었습니다. 사실 이 벌은 1858년 처음 발견된 이후 1981년에야 다시 발견되었을 만큼 찾기 어려운 희귀종입니다. 그런데 시드니 대학과 국제 야생 동물 보호 협회 (Global Wildlife Conservation)의 연구팀이 오랜 수색 끝에 2019년 인도네시아의 오지에서 메가칠레 암컷을 야생 상태에서 발견하는데 성공했습니다.   메가칠레 암컷은 특이하게도 살아있는 흰개미 둥지가 있는 나무에 둥지를 만들고 살아갑니다. 이들의 거대한 턱은 나무의 수지를 모아 둥지를 짓는데 유리합니다. 하지만 워낙 희귀종이라 이들의 생태에 대해서는 거의 알려진 바가 없습니다.  (동영상)...

몸에 철이 많으면 조기 사망 위험도가 높다?

 철분은 인체에 반드시 필요한 미량 원소입니다. 헤모글로빈에 필수적인 물질이기 때문에 철분 부족은 흔히 빈혈을 부르며 반대로 피를 자꾸 잃는 경우에는 철분 부족 현상이 발생합니다. 하지만 철분 수치가 높다는 것은 반드시 좋은 의미는 아닙니다. 모든 일에는 적당한 수준이 있게 마련이고 철 역시 너무 많으면 여러 가지 질병을 일으킬 수 있습니다. 철 대사에 문제가 생겨 철이 과다하게 축적되는 혈색소증 ( haemochromatosis ) 같은 드문 경우가 아니라도 과도한 철분 섭취나 수혈로 인한 철분 과잉은 건강에 문제를 일으킬 수 있습니다. 하지만 높은 철 농도가 수명에 미치는 영향에 대해서는 잘 알려지지 않았습니다.   하버드 대학의 이야스 다글라스( Iyas Daghlas )와 임페리얼 칼리지 런던의 데펜더 길 ( Dipender Gill )은 체내 철 함유량에 영향을 미치는 유전적 변이와 수명의 관계를 조사했습니다. 연구팀은 48972명의 유전 정보와 혈중 철분 농도, 그리고 기대 수명의 60/90%에서 생존 확률을 조사했습니다. 그 결과 유전자로 예측한 혈중 철분 농도가 증가할수록 오래 생존할 가능성이 낮은 것으로 나타났습니다. 이것이 유전자 자체 때문인지 아니면 높은 혈중/체내 철 농도 때문인지는 명확하지 않지만, 높은 혈중 철 농도가 꼭 좋은 뜻이 아니라는 것을 시사하는 결과입니다.   연구팀은 이 데이터를 근거로 건강한 사람이 영양제나 종합 비타민제를 통해 과도한 철분을 섭취할 이유는 없다고 주장했습니다. 어쩌면 높은 철 농도가 조기 사망 위험도를 높일지도 모르기 때문입니다. 그러나 임산부나 빈혈 환자 등 진짜 철분이 필요한 사람들까지 철분 섭취를 꺼릴 필요가 없다는 점도 강조했습니다. 연구 내용은 정상보다 높은 혈중 철농도가 오래 유지되는 경우를 가정한 것으로 본래 철분 부족이 있는 사람을 대상으로 한 것이 아니기 때문입니다. 낮은 철분 농도와 빈혈이 건강에 미치는 악영향은 이미 잘 알려져 있기 때문에 철...

사막에서 식물을 재배하는 온실 Ecodome

 지구 기후가 변해가면서 일부 지역에서는 비가 더 많이 내리지만 반대로 비가 적게 내리는 지역도 생기고 있습니다. 일부 아프리카 개도국에서는 이에 더해서 인구 증가로 인해 식량과 물이 모두 크게 부족한 현상이 지속되고 있습니다. 이를 해결하기 위한 여러 가지 아이디어들이 나오고 있는데, 그 중 하나가 사막 온실입니다.   사막에 온실을 건설한다는 아이디어는 이상해 보이지만, 실제로는 다양한 사막 온실이 식물재배를 위해서 시도되고 있습니다. 사막 온실의 아이디어는 낮과 밤의 일교차가 큰 사막 환경에서 작물을 재배함과 동시에 물이 증발해서 사라지는 것을 막는데 그 중요한 이유가 있습니다.   사막화가 진행 중인 에티오피아의 곤다르 대학( University of Gondar's Faculty of Agriculture )의 연구자들은 사막 온실과 이슬을 모으는 장치를 결합한 독특한 사막 온실을 공개했습니다. 이들은 이를 에코돔( Ecodome )이라고 명명했는데, 아직 프로토타입을 건설한 것은 아니지만 그 컨셉을 공개하고 개발에 착수했다고 합니다.   원리는 간단합니다. 사막에 건설된 온실안에서 작물을 키움니다. 이 작물은 광합성을 하면서 수증기를 밖으로 내보네게 되지만, 온실 때문에 이 수증기를 달아나지 못하고 갖히게 됩니다. 밤이 되면 이 수증기는 다시 응결됩니다. 그리고 동시에 에코돔의 가장 위에 있는 부분이 열리면서 여기로 찬 공기가 들어와 외부 공기에 있는 수증기가 응결되어 에코돔 내부로 들어옵니다. 그렇게 얻은 물은 식수는 물론 식물 재배 모두에 사용 가능합니다.  (에코돔의 컨셉.  출처 : Roots Up)   (동영상)   이 컨셉은 마치 사막 온실과 이슬을 모으는 담수 장치를 합쳐놓은 것이라고 말할 수 있습니다. 물론 실제로도 잘 작동할지는 직접 테스트를 해봐야 알 수...