기본 콘텐츠로 건너뛰기

R을 이용해 간단한 신경망 만들기 (3)




 앞서 많이 다뤘던 다이아몬드 데이터를 이용해서 다이아몬드 가격을 예측하는 신경망을 만들어보겠습니다. 인공 지능이 다루는 영역은 매우 다양하지만, 가장 흔한 적용은 바로 예측과 분류입니다. 예를 들어 사람인지 고릴라인지 분류하고 거기에 맞게 반응하는 것이죠. 사용자의 취향을 분류해서 가장 가능성 있는 연관 상품을 광고하는 것 역시 마찬가지입니다. 


 전통적인 선형 회귀 혹은 로지스틱 회귀 분석 방법에 비해서 신경망을 이용한 예측은 기존의 방식으로는 해결하기 어려웠던 여러 가지 예측과 분류를 가능하게 합니다. 독립 변수와 종속 변수의 관계가 비선형이거나 혹은 여러 가지 통계적 가정을 만족시키지 않는 자료라도 학습시키는데 문제가 없습니다. 특히 이미지, 음성, 언어 등 기존의 방식으로는 예측이나 분류가 어려운 비정형 데이터 학습에도 큰 효과를 발휘해 신경망은 현재 인공 지능의 대세로 떠오르고 있습니다. 하지만 막상 공부하려면 쉽지 않은 분야인 것도 사실입니다. 


 여기서는 가장 간단한 형태의 패키지인 neuralnet을 이용해서 다시 한 번 시도해보겠습니다. 



#diamonds
library(ggplot2)
library(neuralnet)


 다이아몬드 패키지에는 cut, color, clarity 등 여러 정보가 들어가 있는데 이 정보는 neuralnet 패키지에는 그대로 인식하지 못하기 때문에 이를 아래처럼 문자형이 아니라 숫자형으로 변경해 주어야 합니다. 

diamonds$cut2[diamonds$cut=="Fair"]=0
diamonds$cut2[diamonds$cut=="Good"]=1
diamonds$cut2[diamonds$cut=="Very Good"]=2
diamonds$cut2[diamonds$cut=="Premium"]=3
diamonds$cut2[diamonds$cut=="Ideal"]=4

diamonds$color2[diamonds$color=="D"]=0
diamonds$color2[diamonds$color=="E"]=1
diamonds$color2[diamonds$color=="F"]=2
diamonds$color2[diamonds$color=="G"]=3
diamonds$color2[diamonds$color=="H"]=4
diamonds$color2[diamonds$color=="I"]=5
diamonds$color2[diamonds$color=="J"]=6

diamonds$clartiy2[diamonds$clarity=="I1"]=0
diamonds$clartiy2[diamonds$clarity=="SI1"]=1
diamonds$clartiy2[diamonds$clarity=="SI2"]=2
diamonds$clartiy2[diamonds$clarity=="VS1"]=3
diamonds$clartiy2[diamonds$clarity=="VS2"]=4
diamonds$clartiy2[diamonds$clarity=="VVS1"]=5
diamonds$clartiy2[diamonds$clarity=="VVS2"]=6
diamonds$clartiy2[diamonds$clarity=="IF"]=7


 일단 학습을 위해 1000개 정도 샘플을 뽑아 보겠습니다. 


set.seed(1000)
diamonds1<-sample 1000="" diamonds="" nrow="" replace="FALSE)</span">
train<-diamonds diamonds1="" span="">


 이렇게 뽑은 샘플은 train이라는 객체에 저장했습니다. 그리고 학습을 시킵니다. 


start_time <- span="" sys.time="">

f=price~carat
fit<-neuralnet f="" span="">
               data=train, 
               hidden=c(3,3,3),
               algorithm = "rprop+",
               err.fct = "sse",
               act.fct = "logistic",
               threshold = 0.1,
               stepmax=1e6,
               linear.output = TRUE)

fit

end_time <- span="" sys.time="">

end_time - start_time


 여기서는 각각의 뉴런이 3개인 3개의 층을 지닌 DNN을 만들었습니다. 일단 기본값을 이용해서 만들었는데, 보통 신경망은 일반적인 통계 분석 방법에 비해 시간이 오래 걸립니다. 따라서 시간을 측정하기 위해 코드를 삽입했습니다. 이 내용은 이전에 설명한 적이 있죠. 


start_time <- span="" sys.time="">
 
 (시간을 측정하려는 코드) 

end_time <- span="" sys.time="">

end_time - start_time

 해보면 저는 5.5초 걸렸습니다. 아무래도 캐럿과 가격이라는 비교적 단순한 데이터다보니 시간이 짧게 걸린 것 같습니다. data=diamonds로 바꾸면 전체 데이터를 학습하게 되는데 저는 5분 정도 걸렸습니다. 여기서는 시간이 없으니 일부 샘플만 이용해서 진행해 보겠습니다. 학습을 한 신경망이 실제로 얼마나 예측을 잘 하는지 보기 위해 20개 정도 샘플을 다시 다이아몬드 데이터에 뽑아 예측을 시켜 보겠습니다. 일부 값은 중복될 수 있지만, 관측치가 5만개 이상이라 대부분은 겹치지 않을 것입니다.  



set.seed(111)
diamonds1<-sample 20="" diamonds="" nrow="" replace="FALSE)</span">
test<-diamonds diamonds1="" span="">

pred<-compute carat="" fit="" span="" test="">
pred

result<-cbind net="" pred="" span="" test="">
result




 결과는 다소 황당하게 나왔습니다. 예측한 가격이 모두 3841 달러로 나온 것이죠. 보통 텍스트북이나 혹은 다른 사이트에서 볼 수 있는 예제들은 대부분 잘 되는 것을 보여주지만, 실제로 해보면 그렇게 되지 않습니다. 여기서는 왜 안되는지 하나씩 알아 보겠습니다. 신경망이 학습을 하면서 분류를 한 게 아니라 오히려 하나로 잘못 수렴된 값을 보여주는 경우인데, 어쩌면 정보가 너무 부족한 것이 원인일 수도 있습니다. 이번에는 cut, color, clarity, depth 값을 넣어 보겠습니다. (clarity가 오타라서 수정해야 겠네요. 저도 지금 봤습니다) 

f=price~carat+cut2+color2+clarity2+depth 이렇게만 바꿔서 코드를 넣으면 됩니다. 


start_time <- span="" sys.time="">


f=price~carat+cut2+color2+clarity2+depth

fit<-neuralnet f="" span="">
               data=train, 
               hidden=c(3,3,3),
               algorithm = "rprop+",
               err.fct = "sse",
               act.fct = "logistic",
               threshold = 0.1,
               stepmax=1e6,
               linear.output = TRUE)

fit

end_time <- span="" sys.time="">

end_time - start_time


 이번에도 5.5 초 정도 나오네요. 그러면 예측력은 좋아졌을까요. 이를 측정하기 위해서는 carat 이외에 다른 정보도 같이 주고 테스트를 해야 합니다. 

set.seed(111)
diamonds1<-sample 20="" diamonds="" nrow="" replace="FALSE)</span">
test<-diamonds diamonds1="" span="">

test1<-test c="" carat="" clarity2="" color2="" cut2="" depth="" span="">

pred<-compute fit="" span="" test1="">

result<-cbind net="" pred="" span="" test1="">
result


> result
   carat cut2 color2 clarity2 depth   pred$net
1   0.30    3      2        4  61.4 3841.03705
2   0.50    2      3        2  63.3 3841.03705
3   1.51    4      6        3  61.9 3841.03705
4   0.32    3      4        4  61.0 3841.03705
5   1.56    4      6        3  62.5 3841.03705
6   1.03    4      2        7  63.1 3841.03705
7   0.70    4      2        1  60.7 3841.03705
8   0.38    4      1        1  60.7 3841.03705
9   1.56    3      4        3  62.0 3841.03705
10  0.31    3      4        1  61.1 3841.03705
11  0.32    4      0        1  60.9 3841.03705
12  0.34    4      4        5  61.8 3841.03705
13  0.80    3      2        4  61.6 3841.03705
14  0.90    1      2        2  64.3 3841.03705
15  1.00    1      4        1  61.6 3841.03705
16  2.01    1      4        2  57.6 3841.03705
17  1.01    3      4        4  61.9 3841.03705
18  0.75    2      2        1  60.6 3841.03705
19  1.25    4      1        2  62.3 3841.03705
20  0.31    3      3        5  60.7 3841.03705


 역시 달라진게 없습니다. 이는 근본적으로 알고리즘에 문제가 있기 때문으로 이런 방식으로는 절대 원하는 결과를 얻기 어려울 것입니다. 문제를 해결하는 방법은 여러 가지가 있겠지만, 여기서는 간단한 근사치를 통해서 해결을 시도해 보겠습니다. 아무래도 가격의 분포가 너무 넓어 학습이 제대로 이뤄지지 않는 것으로 보입니다. 이를 범주형으로 바꾸면 어떨까요? 



mygroup<-function k="4){</span" y="">
  count=length(y)
  z=rank(y,ties.method = "min")
  return(floor((z-1)/(count/k))+1)
}

diamonds$price2<-mygroup diamonds="" price="" span="">


 가격에 따라 10개의 그룹으로 나누고 price2라고 명명합니다. 

set.seed(1000)
diamonds1<-sample 1000="" diamonds="" nrow="" replace="FALSE)</span">
train<-diamonds diamonds1="" span="">


 다시 1000개의 샘플을 구해 학습을 시킵니다. 


f=price2~carat

start_time <- span="" sys.time="">

fit<-neuralnet f="" span="">
               data=train, 
               hidden=c(3,3,3),
               algorithm = "rprop+",
               err.fct = "sse",
               act.fct = "logistic",
               threshold = 0.1,
               stepmax=1e6,
               linear.output = TRUE)

fit

end_time <- span="" sys.time="">

end_time - start_time

set.seed(111)
diamonds1<-sample 20="" diamonds="" nrow="" replace="FALSE)</span">
test<-diamonds diamonds1="" span="">

pred<-compute carat="" fit="" span="" test="">
pred

result<-cbind net="" pred="" span="" test="">
result


 이렇게 하면 pred$net의 값이 소수점 이하로 나와 보기 어려우니 round로 반올림 하겠습니다. 

result$`pred$net`<-round net="" pred="" result="" span="">
result



 완벽하지는 않지만 얼추 비슷하게 추정을 한다는 사실을 알 수 있습니다. 20개 중 7개를 잘못 분류했습니다. 그러면 정보를 더 주면 개선될 수 있을까요? 


f=price2~carat+cut2+color2+clarity2+depth

start_time <- span="" sys.time="">

fit<-neuralnet f="" span="">
               data=train, 
               hidden=c(3,3,3),
               algorithm = "rprop+",
               err.fct = "sse",
               act.fct = "logistic",
               threshold = 0.1,
               stepmax=1e6,
               linear.output = TRUE)

fit

end_time <- span="" sys.time="">

end_time - start_time

set.seed(111)
diamonds1<-sample 20="" diamonds="" nrow="" replace="FALSE)</span">
test<-diamonds diamonds1="" span="">

test1<-test c="" carat="" clarity2="" color2="" cut2="" depth="" span="">

pred<-compute fit="" span="" test1="">

result<-cbind net="" pred="" span="" test="">
result$`pred$net`<-round net="" pred="" result="" span="">
result




 시간은 3배 더 걸렸는데, 예측력은 엄청나게 개선된 것 같지는 않아 보입니다. 역시 20개 중 7개를 잘못 분류했습니다. 아무튼 이전처럼 하나로 수렴되어 하나도 예측을 못하는 것보다는 좋아 보입니다. 또 잘못 분류했다고 해도 비교적 근사치에 가까운 모습을 보이는 것 역시 그렇습니다. 재미있는 사실은 오히려 샘플 수를 늘리거나 정보를 더 준다고 꼭 더 좋은 결과가 나오지 않는다는 점입니다. 이 부분도 코드를 수정해가면서 직접 알아볼 수 있을 것입니다. 


 좀 더 알아보기 위해 다른 예제도 같이 해보겠습니다. 




댓글

이 블로그의 인기 게시물

세상에서 가장 큰 벌

( Wallace's giant bee, the largest known bee species in the world, is four times larger than a European honeybee(Credit: Clay Bolt) ) (Photographer Clay Bolt snaps some of the first-ever shots of Wallace's giant bee in the wild(Credit: Simon Robson)  월리스의 거대 벌 (Wallace’s giant bee)로 알려진 Megachile pluto는 매우 거대한 인도네시아 벌로 세상에서 가장 거대한 말벌과도 경쟁할 수 있는 크기를 지니고 있습니다. 암컷의 경우 몸길이 3.8cm, 날개너비 6.35cm으로 알려진 벌 가운데 가장 거대하지만 수컷의 경우 이보다 작아서 몸길이가 2.3cm 정도입니다. 아무튼 일반 꿀벌의 4배가 넘는 몸길이를 지닌 거대 벌이라고 할 수 있습니다.   메가칠레는 1981년 몇 개의 표본이 발견된 이후 지금까지 추가 발견이 되지 않아 멸종되었다고 보는 과학자들도 있었습니다. 2018년에 eBay에 표본이 나왔지만, 언제 잡힌 것인지는 알 수 없었습니다. 사실 이 벌은 1858년 처음 발견된 이후 1981년에야 다시 발견되었을 만큼 찾기 어려운 희귀종입니다. 그런데 시드니 대학과 국제 야생 동물 보호 협회 (Global Wildlife Conservation)의 연구팀이 오랜 수색 끝에 2019년 인도네시아의 오지에서 메가칠레 암컷을 야생 상태에서 발견하는데 성공했습니다.   메가칠레 암컷은 특이하게도 살아있는 흰개미 둥지가 있는 나무에 둥지를 만들고 살아갑니다. 이들의 거대한 턱은 나무의 수지를 모아 둥지를 짓는데 유리합니다. 하지만 워낙 희귀종이라 이들의 생태에 대해서는 거의 알려진 바가 없습니다.  (동영상)...

몸에 철이 많으면 조기 사망 위험도가 높다?

 철분은 인체에 반드시 필요한 미량 원소입니다. 헤모글로빈에 필수적인 물질이기 때문에 철분 부족은 흔히 빈혈을 부르며 반대로 피를 자꾸 잃는 경우에는 철분 부족 현상이 발생합니다. 하지만 철분 수치가 높다는 것은 반드시 좋은 의미는 아닙니다. 모든 일에는 적당한 수준이 있게 마련이고 철 역시 너무 많으면 여러 가지 질병을 일으킬 수 있습니다. 철 대사에 문제가 생겨 철이 과다하게 축적되는 혈색소증 ( haemochromatosis ) 같은 드문 경우가 아니라도 과도한 철분 섭취나 수혈로 인한 철분 과잉은 건강에 문제를 일으킬 수 있습니다. 하지만 높은 철 농도가 수명에 미치는 영향에 대해서는 잘 알려지지 않았습니다.   하버드 대학의 이야스 다글라스( Iyas Daghlas )와 임페리얼 칼리지 런던의 데펜더 길 ( Dipender Gill )은 체내 철 함유량에 영향을 미치는 유전적 변이와 수명의 관계를 조사했습니다. 연구팀은 48972명의 유전 정보와 혈중 철분 농도, 그리고 기대 수명의 60/90%에서 생존 확률을 조사했습니다. 그 결과 유전자로 예측한 혈중 철분 농도가 증가할수록 오래 생존할 가능성이 낮은 것으로 나타났습니다. 이것이 유전자 자체 때문인지 아니면 높은 혈중/체내 철 농도 때문인지는 명확하지 않지만, 높은 혈중 철 농도가 꼭 좋은 뜻이 아니라는 것을 시사하는 결과입니다.   연구팀은 이 데이터를 근거로 건강한 사람이 영양제나 종합 비타민제를 통해 과도한 철분을 섭취할 이유는 없다고 주장했습니다. 어쩌면 높은 철 농도가 조기 사망 위험도를 높일지도 모르기 때문입니다. 그러나 임산부나 빈혈 환자 등 진짜 철분이 필요한 사람들까지 철분 섭취를 꺼릴 필요가 없다는 점도 강조했습니다. 연구 내용은 정상보다 높은 혈중 철농도가 오래 유지되는 경우를 가정한 것으로 본래 철분 부족이 있는 사람을 대상으로 한 것이 아니기 때문입니다. 낮은 철분 농도와 빈혈이 건강에 미치는 악영향은 이미 잘 알려져 있기 때문에 철...

인슐린 주사 일주일에 한 번만 맞아도 된다?

   당뇨병은 관리가 까다로운 만성 질병 중 하나입니다. 특히 인슐린 주사가 필요한 경우에는 더 관리가 어렵습니다. 하루에 주사를 몇 번씩 맞아야 하면 찌르는 것도 고통이고 실수로 건너뛰거나 용량을 실수하는 경우도 드물지 않습니다. 특히 고령 환자의 경우 더 위험할 수 있습니다. 이런 문제를 극복하기 위해 여러 제약 회사들이 새로운 투여 방법과 인슐린 제제를 내놓고 있습니다.   최근 2상 임상 시험을 마친 노보 노디스크 ( Novo Nordisk )의 인슐린 아이코덱 ( icodec )은 일주일에 한 번 투여하는 장시간 인슐린 제제입니다. 아이코덱은 효소에 의해 분해되는 것을 막는 변형 인슐린 분자로 혈액에서 알부민과 결합해 서서히 분리되기 때문에 한 번 주사로도 일주일이나 효과를 유지할 수 있습니다.   하지만 이렇게 장시간 작용하는 인슐린 제제의 경우 환자의 식사나 운동 같은 상황 변화에 인슐린 농도가 적절하게 유지되지 않을 가능성이 있습니다. 이번 2상 임상시험에서는 247명의 당뇨 환자를 두 그룹으로 나눈 후 실험군은 일주일에 한 번씩 아이코덱을 투여받고 매일 위약을 투여받았습니다. 그리고 대조군은 반대로 일주일에 한 번씩 위약을 투여받고 하루에 한 번씩 장시간 인슐린 제제인 란투스 (Lantus, glargine) 100U을 투여받았습니다.   26주에 걸친 임상 실험 결과 하루에 한 번 란투스를 투여받은 그룹이나 일주일에 한 번 아이코덱을 투여받은 그룹에서 특별한 합병증 차이를 발견할 수 없었습니다. 혈당 조절의 지표인 당화 혈색소 (HbA1c) 농도 역시 아이코덱 그룹에서 1.33% 감소한 반면 란투스 그룹에서 1.15% 정도 감소해서 큰 차이는 없었습니다. 그렇다면 하루에 한 번 투여하는 대신 일주일에 한 번 투여하는 것이 더 편리하고 실수로 두 번 투여하거나 건너 뛸 위험성이 적을 것입니다. 이 연구 결과는 뉴잉글랜드 저널 오브 메디슨 ( New England Journal...