기본 콘텐츠로 건너뛰기

R을 이용해 간단한 신경망 만들기 (3)




 앞서 많이 다뤘던 다이아몬드 데이터를 이용해서 다이아몬드 가격을 예측하는 신경망을 만들어보겠습니다. 인공 지능이 다루는 영역은 매우 다양하지만, 가장 흔한 적용은 바로 예측과 분류입니다. 예를 들어 사람인지 고릴라인지 분류하고 거기에 맞게 반응하는 것이죠. 사용자의 취향을 분류해서 가장 가능성 있는 연관 상품을 광고하는 것 역시 마찬가지입니다. 


 전통적인 선형 회귀 혹은 로지스틱 회귀 분석 방법에 비해서 신경망을 이용한 예측은 기존의 방식으로는 해결하기 어려웠던 여러 가지 예측과 분류를 가능하게 합니다. 독립 변수와 종속 변수의 관계가 비선형이거나 혹은 여러 가지 통계적 가정을 만족시키지 않는 자료라도 학습시키는데 문제가 없습니다. 특히 이미지, 음성, 언어 등 기존의 방식으로는 예측이나 분류가 어려운 비정형 데이터 학습에도 큰 효과를 발휘해 신경망은 현재 인공 지능의 대세로 떠오르고 있습니다. 하지만 막상 공부하려면 쉽지 않은 분야인 것도 사실입니다. 


 여기서는 가장 간단한 형태의 패키지인 neuralnet을 이용해서 다시 한 번 시도해보겠습니다. 



#diamonds
library(ggplot2)
library(neuralnet)


 다이아몬드 패키지에는 cut, color, clarity 등 여러 정보가 들어가 있는데 이 정보는 neuralnet 패키지에는 그대로 인식하지 못하기 때문에 이를 아래처럼 문자형이 아니라 숫자형으로 변경해 주어야 합니다. 

diamonds$cut2[diamonds$cut=="Fair"]=0
diamonds$cut2[diamonds$cut=="Good"]=1
diamonds$cut2[diamonds$cut=="Very Good"]=2
diamonds$cut2[diamonds$cut=="Premium"]=3
diamonds$cut2[diamonds$cut=="Ideal"]=4

diamonds$color2[diamonds$color=="D"]=0
diamonds$color2[diamonds$color=="E"]=1
diamonds$color2[diamonds$color=="F"]=2
diamonds$color2[diamonds$color=="G"]=3
diamonds$color2[diamonds$color=="H"]=4
diamonds$color2[diamonds$color=="I"]=5
diamonds$color2[diamonds$color=="J"]=6

diamonds$clartiy2[diamonds$clarity=="I1"]=0
diamonds$clartiy2[diamonds$clarity=="SI1"]=1
diamonds$clartiy2[diamonds$clarity=="SI2"]=2
diamonds$clartiy2[diamonds$clarity=="VS1"]=3
diamonds$clartiy2[diamonds$clarity=="VS2"]=4
diamonds$clartiy2[diamonds$clarity=="VVS1"]=5
diamonds$clartiy2[diamonds$clarity=="VVS2"]=6
diamonds$clartiy2[diamonds$clarity=="IF"]=7


 일단 학습을 위해 1000개 정도 샘플을 뽑아 보겠습니다. 


set.seed(1000)
diamonds1<-sample 1000="" diamonds="" nrow="" replace="FALSE)</span">
train<-diamonds diamonds1="" span="">


 이렇게 뽑은 샘플은 train이라는 객체에 저장했습니다. 그리고 학습을 시킵니다. 


start_time <- span="" sys.time="">

f=price~carat
fit<-neuralnet f="" span="">
               data=train, 
               hidden=c(3,3,3),
               algorithm = "rprop+",
               err.fct = "sse",
               act.fct = "logistic",
               threshold = 0.1,
               stepmax=1e6,
               linear.output = TRUE)

fit

end_time <- span="" sys.time="">

end_time - start_time


 여기서는 각각의 뉴런이 3개인 3개의 층을 지닌 DNN을 만들었습니다. 일단 기본값을 이용해서 만들었는데, 보통 신경망은 일반적인 통계 분석 방법에 비해 시간이 오래 걸립니다. 따라서 시간을 측정하기 위해 코드를 삽입했습니다. 이 내용은 이전에 설명한 적이 있죠. 


start_time <- span="" sys.time="">
 
 (시간을 측정하려는 코드) 

end_time <- span="" sys.time="">

end_time - start_time

 해보면 저는 5.5초 걸렸습니다. 아무래도 캐럿과 가격이라는 비교적 단순한 데이터다보니 시간이 짧게 걸린 것 같습니다. data=diamonds로 바꾸면 전체 데이터를 학습하게 되는데 저는 5분 정도 걸렸습니다. 여기서는 시간이 없으니 일부 샘플만 이용해서 진행해 보겠습니다. 학습을 한 신경망이 실제로 얼마나 예측을 잘 하는지 보기 위해 20개 정도 샘플을 다시 다이아몬드 데이터에 뽑아 예측을 시켜 보겠습니다. 일부 값은 중복될 수 있지만, 관측치가 5만개 이상이라 대부분은 겹치지 않을 것입니다.  



set.seed(111)
diamonds1<-sample 20="" diamonds="" nrow="" replace="FALSE)</span">
test<-diamonds diamonds1="" span="">

pred<-compute carat="" fit="" span="" test="">
pred

result<-cbind net="" pred="" span="" test="">
result




 결과는 다소 황당하게 나왔습니다. 예측한 가격이 모두 3841 달러로 나온 것이죠. 보통 텍스트북이나 혹은 다른 사이트에서 볼 수 있는 예제들은 대부분 잘 되는 것을 보여주지만, 실제로 해보면 그렇게 되지 않습니다. 여기서는 왜 안되는지 하나씩 알아 보겠습니다. 신경망이 학습을 하면서 분류를 한 게 아니라 오히려 하나로 잘못 수렴된 값을 보여주는 경우인데, 어쩌면 정보가 너무 부족한 것이 원인일 수도 있습니다. 이번에는 cut, color, clarity, depth 값을 넣어 보겠습니다. (clarity가 오타라서 수정해야 겠네요. 저도 지금 봤습니다) 

f=price~carat+cut2+color2+clarity2+depth 이렇게만 바꿔서 코드를 넣으면 됩니다. 


start_time <- span="" sys.time="">


f=price~carat+cut2+color2+clarity2+depth

fit<-neuralnet f="" span="">
               data=train, 
               hidden=c(3,3,3),
               algorithm = "rprop+",
               err.fct = "sse",
               act.fct = "logistic",
               threshold = 0.1,
               stepmax=1e6,
               linear.output = TRUE)

fit

end_time <- span="" sys.time="">

end_time - start_time


 이번에도 5.5 초 정도 나오네요. 그러면 예측력은 좋아졌을까요. 이를 측정하기 위해서는 carat 이외에 다른 정보도 같이 주고 테스트를 해야 합니다. 

set.seed(111)
diamonds1<-sample 20="" diamonds="" nrow="" replace="FALSE)</span">
test<-diamonds diamonds1="" span="">

test1<-test c="" carat="" clarity2="" color2="" cut2="" depth="" span="">

pred<-compute fit="" span="" test1="">

result<-cbind net="" pred="" span="" test1="">
result


> result
   carat cut2 color2 clarity2 depth   pred$net
1   0.30    3      2        4  61.4 3841.03705
2   0.50    2      3        2  63.3 3841.03705
3   1.51    4      6        3  61.9 3841.03705
4   0.32    3      4        4  61.0 3841.03705
5   1.56    4      6        3  62.5 3841.03705
6   1.03    4      2        7  63.1 3841.03705
7   0.70    4      2        1  60.7 3841.03705
8   0.38    4      1        1  60.7 3841.03705
9   1.56    3      4        3  62.0 3841.03705
10  0.31    3      4        1  61.1 3841.03705
11  0.32    4      0        1  60.9 3841.03705
12  0.34    4      4        5  61.8 3841.03705
13  0.80    3      2        4  61.6 3841.03705
14  0.90    1      2        2  64.3 3841.03705
15  1.00    1      4        1  61.6 3841.03705
16  2.01    1      4        2  57.6 3841.03705
17  1.01    3      4        4  61.9 3841.03705
18  0.75    2      2        1  60.6 3841.03705
19  1.25    4      1        2  62.3 3841.03705
20  0.31    3      3        5  60.7 3841.03705


 역시 달라진게 없습니다. 이는 근본적으로 알고리즘에 문제가 있기 때문으로 이런 방식으로는 절대 원하는 결과를 얻기 어려울 것입니다. 문제를 해결하는 방법은 여러 가지가 있겠지만, 여기서는 간단한 근사치를 통해서 해결을 시도해 보겠습니다. 아무래도 가격의 분포가 너무 넓어 학습이 제대로 이뤄지지 않는 것으로 보입니다. 이를 범주형으로 바꾸면 어떨까요? 



mygroup<-function k="4){</span" y="">
  count=length(y)
  z=rank(y,ties.method = "min")
  return(floor((z-1)/(count/k))+1)
}

diamonds$price2<-mygroup diamonds="" price="" span="">


 가격에 따라 10개의 그룹으로 나누고 price2라고 명명합니다. 

set.seed(1000)
diamonds1<-sample 1000="" diamonds="" nrow="" replace="FALSE)</span">
train<-diamonds diamonds1="" span="">


 다시 1000개의 샘플을 구해 학습을 시킵니다. 


f=price2~carat

start_time <- span="" sys.time="">

fit<-neuralnet f="" span="">
               data=train, 
               hidden=c(3,3,3),
               algorithm = "rprop+",
               err.fct = "sse",
               act.fct = "logistic",
               threshold = 0.1,
               stepmax=1e6,
               linear.output = TRUE)

fit

end_time <- span="" sys.time="">

end_time - start_time

set.seed(111)
diamonds1<-sample 20="" diamonds="" nrow="" replace="FALSE)</span">
test<-diamonds diamonds1="" span="">

pred<-compute carat="" fit="" span="" test="">
pred

result<-cbind net="" pred="" span="" test="">
result


 이렇게 하면 pred$net의 값이 소수점 이하로 나와 보기 어려우니 round로 반올림 하겠습니다. 

result$`pred$net`<-round net="" pred="" result="" span="">
result



 완벽하지는 않지만 얼추 비슷하게 추정을 한다는 사실을 알 수 있습니다. 20개 중 7개를 잘못 분류했습니다. 그러면 정보를 더 주면 개선될 수 있을까요? 


f=price2~carat+cut2+color2+clarity2+depth

start_time <- span="" sys.time="">

fit<-neuralnet f="" span="">
               data=train, 
               hidden=c(3,3,3),
               algorithm = "rprop+",
               err.fct = "sse",
               act.fct = "logistic",
               threshold = 0.1,
               stepmax=1e6,
               linear.output = TRUE)

fit

end_time <- span="" sys.time="">

end_time - start_time

set.seed(111)
diamonds1<-sample 20="" diamonds="" nrow="" replace="FALSE)</span">
test<-diamonds diamonds1="" span="">

test1<-test c="" carat="" clarity2="" color2="" cut2="" depth="" span="">

pred<-compute fit="" span="" test1="">

result<-cbind net="" pred="" span="" test="">
result$`pred$net`<-round net="" pred="" result="" span="">
result




 시간은 3배 더 걸렸는데, 예측력은 엄청나게 개선된 것 같지는 않아 보입니다. 역시 20개 중 7개를 잘못 분류했습니다. 아무튼 이전처럼 하나로 수렴되어 하나도 예측을 못하는 것보다는 좋아 보입니다. 또 잘못 분류했다고 해도 비교적 근사치에 가까운 모습을 보이는 것 역시 그렇습니다. 재미있는 사실은 오히려 샘플 수를 늘리거나 정보를 더 준다고 꼭 더 좋은 결과가 나오지 않는다는 점입니다. 이 부분도 코드를 수정해가면서 직접 알아볼 수 있을 것입니다. 


 좀 더 알아보기 위해 다른 예제도 같이 해보겠습니다. 




댓글

이 블로그의 인기 게시물

통계 공부는 어떻게 하는 것이 좋을까?

 사실 저도 통계 전문가가 아니기 때문에 이런 주제로 글을 쓰기가 다소 애매하지만, 그래도 누군가에게 도움이 될 수 있다고 생각해서 글을 올려봅니다. 통계학, 특히 수학적인 의미에서의 통계학을 공부하게 되는 계기는 사람마다 다르긴 하겠지만, 아마도 비교적 흔하고 난감한 경우는 논문을 써야 하는 경우일 것입니다. 오늘날의 학문적 연구는 집단간 혹은 방법간의 차이가 있다는 것을 객관적으로 보여줘야 하는데, 그려면 불가피하게 통계적인 방법을 쓸 수 밖에 없게 됩니다. 이런 이유로 분야와 주제에 따라서는 아닌 경우도 있겠지만, 상당수 논문에서는 통계학이 들어가게 됩니다.   문제는 데이터를 처리하고 분석하는 방법을 익히는 데도 상당한 시간과 노력이 필요하다는 점입니다. 물론 대부분의 학과에서 통계 수업이 들어가기는 하지만, 그것만으로는 충분하지 않은 경우가 많습니다. 대학 학부 과정에서는 대부분 논문 제출이 필요없거나 필요하다고 해도 그렇게 높은 수준을 요구하지 않지만, 대학원 이상 과정에서는 SCI/SCIE 급 논문이 필요하게 되어 처음 논문을 작성하는 입장에서는 상당히 부담되는 상황에 놓이게 됩니다.  그리고 이후 논문을 계속해서 쓰게 될 경우 통계 문제는 항상 나를 따라다니면서 괴롭히게 될 것입니다.  사정이 이렇다보니 간혹 통계 공부를 어떻게 하는 것이 좋겠냐는 질문이 들어옵니다. 사실 저는 통계 전문가라고 하기에는 실력은 모자라지만, 대신 앞서서 삽질을 한 경험이 있기 때문에 몇 가지 조언을 해줄 수 있을 것 같습니다.  1. 입문자를 위한 책을 추천해달라  사실 예습을 위해서 미리 공부하는 것은 추천하지 않습니다. 기본적인 통계는 학과별로 다르지 않더라도 주로 쓰는 분석방법은 분야별로 상당한 차이가 있을 수 있어 결국은 자신이 주로 하는 부분을 잘 해야 하기 때문입니다. 그러기 위해서는 학과 커리큘럼에 들어있는 통계 수업을 듣는 것이 더 유리합니다. 잘 쓰지도 않을 방법을 열심히 공부하는 것은 아무래도 효율

R 스튜디오 설치 및 업데이트

 R을 설치한 후 기본으로 제공되는 R 콘솔창에서 코드를 입력해 작업을 수행할 수도 있지만, 보통은 그렇게 하기 보다는 가장 널리 사용되는 R 개발환경인 R 스튜디오가 널리 사용됩니다. 오픈 소스 무료 버전의 R 스튜디오는 누구나 설치가 가능하며 편리한 작업 환경을 제공하기 때문에 R을 위한 IDE에서 가장 널리 사용되어 있습니다. 아래 링크에서 다운로드 받습니다.    https://www.rstudio.com/  다운로드 R 이나 혹은 Powerful IDE for R로 들어가 일반 사용자 버전을 받습니다. 오픈 소스 버전과 상업용 버전, 그리고 데스크탑 버전과 서버 버전이 있는데, 일반적으로는 오픈 소스 버전에 데스크탑 버전을 다운로드 받습니다. 상업 버전의 경우 데스크탑 버전의 경우 년간 995달러, 서버 버전은 9995달러를 받고 여러 가지 기술 지원 및 자문을 해주는 기능이 있습니다.   데스크탑 버전을 설치하는 과정은 매우 쉽기 때문에 별도의 설명이 필요하지 않을 것 같습니다. 인스톨은 윈도우, 맥, 리눅스 (우분투/페도라)에 따라 설치 파일이 나뉘지만 설치가 어렵지는 않을 것입니다. 한 가지 주의할 점이라면 R은 사전에 반드시 따로 설치해야 한다는 점입니다. R 스튜디오만 단독 설치하면 아무것도 할 수 없습니다. 뭐 당연한 이야기죠.   설치된 R 스튜디오는 자동으로 업데이틀 체크하지 않습니다. 따라서 업데이트를 위해서는 R 스튜디오에서 Help 로 들어가 업데이트를 확인해야 합니다.     만약 업데이트 할 내용이 없다면 최신 버전이라고 알려줄 것이고 업데이트가 있다면 업데이트를 진행할 수 있도록 도와주게 됩니다. R의 업데이트와 R 스튜디오의 업데이트는 모두 개별적이며 앞서 설명했듯이 R 업데이트는 사실 기존 버전과 병행해서 새로운 버전을 새롭게 설치하는 것입니다. R 스튜디오는 실제로 업데이트가 이뤄지기 때문에 구버전을 지워줄 필요는

150년 만에 다시 울린 희귀 곤충의 울음 소리

  ( The katydid Prophalangopsis obscura has been lost since it was first collected, with new evidence suggesting cold areas of Northern India and Tibet may be the species' habitat. Credit: Charlie Woodrow, licensed under CC BY 4.0 ) ( The Museum's specimen of P. obscura is the only confirmed member of the species in existence. Image . Credit: The Trustees of the Natural History Museum, London )  과학자들이 1869년 처음 보고된 후 지금까지 소식이 끊긴 오래 전 희귀 곤충의 울음 소리를 재현하는데 성공했습니다. 프로팔랑곱시스 옵스큐라 ( Prophalangopsis obscura)는 이상한 이름만큼이나 이상한 곤충으로 매우 희귀한 메뚜기목 곤충입니다. 친척인 여치나 메뚜기와는 오래전 갈라진 독자 그룹으로 매우 큰 날개를 지니고 있으며 인도와 티벳의 고산 지대에 사는 것으로 보입니다.   유일한 표본은 수컷 성체로 2005년에 암컷으로 생각되는 2마리가 추가로 발견되긴 했으나 정확히 같은 종인지는 다소 미지수인 상태입니다. 현재까지 확실한 표본은 수컷 성체 한 마리가 전부인 미스터리 곤충인 셈입니다.   하지만 과학자들은 그 형태를 볼 때 이들 역시 울음 소리를 통해 짝짓기에서 암컷을 유인했을 것으로 보고 있습니다. 그런데 높은 고산 지대에서 먼 거리를 이동하는 곤충이기 때문에 낮은 피치의 울음 소리를 냈을 것으로 보입니다. 문제는 이런 소리는 암컷 만이 아니라 박쥐도 잘 듣는다는 것입니다. 사실 이들은 중생대 쥐라기 부터 존재했던 그룹으로 당시에는 박쥐가 없어 이런 방식이 잘 통했을 것입니다. 하지만 신생대에 박쥐가 등장하면서 플로팔랑곱