기본 콘텐츠로 건너뛰기

R을 이용해 간단한 신경망 만들기 (11)




 신경망의 학습 결과는 학습시킨 데이터에 따라서 많이 달라지게 됩니다. 당연히 원하는 결과를 얻으려면 알맞는 데이터를 학습시켜야 합니다. 여기서는 다이아몬드 예제에서 1만 달러가 넘는 다이아몬드의 가격을 더 정확히 예측하는 것이 목표라고 가정하고 1만 달러가 넘는 다이아몬드를 학습 데이터에 많이 포함시켜보겠습니다. 


set.seed(1234)
diamonds2<-sample 800="" diamonds1="" nrow="" replace="FALSE)</span">
diamonds2<-diamonds1 diamonds2="" span="">

diamonds3<-subset diamonds1="" price="">10000)
set.seed(1234)
diamonds4<-sample 200="" diamonds3="" nrow="" replace="FALSE)</span">
diamonds4<-diamonds3 diamonds4="" span="">

diamonds5<-rbind diamonds2="" diamonds4="" span="">

set.seed(1234)

n = nrow(diamonds5)
train <- 900="" n="" sample="" span="">
test <- diamonds5="" span="" train="">
train <- diamonds5="" span="" train="">

f<-price2 carat2="" color2="" cut2="" span="">

fit<-neuralnet f="" span="">
               data=train, 
               hidden=c(3,3,3),
               algorithm = "rprop+",
               err.fct = "sse",
               act.fct = "logistic",
               threshold = 0.1,
               stepmax=1e7,
               linear.output = TRUE)

pred<-compute c="" carat2="" color2="" cut2="" fit="" span="" test="">
result1<-cbind net="" pred="" span="" test="">
result1$price3=pred$net*sd(train$price)+mean(train$price)
result1[,c("price","price3")]

result1$price4=result1$price-result1$price3
mean(result1$price4);sd(result1$price4)

result2=subset(result1, price>10000)
result2
mean(result2$price4);sd(result2$price4)


 데이터 전처리를 통해 800개의 샘플은 그냥 수집하고 200개는 1만 달러가 넘는 집단에서 뽑아서 하나로 합쳤습니다. 나머지는 코드는 그대로 동일한데, 마지막에 result2를 통해 1만 달러가 넘는 경우를 따로 뽑은 것입니다. 


> result1$price4=result1$price-result1$price3
> mean(result1$price4);sd(result1$price4)
[1] -3004.491525
[1] 2672.829038
> result2=subset(result1, price>10000)
> result2
    price carat cut2 color2      price2       carat2    pred$net      price3         price4
4   15428  2.26    3      4 2.881407173 3.0844421296 3.081619450 22478.01842  -7050.0184201
13  15485  2.00    3      3 2.895694894 2.5359319348 2.997435762 22023.97741  -6538.9774121
14  16532  2.47    3      6 3.158137760 3.5274695946 3.096604897 22558.84176  -6026.8417645
23  16733  2.01    4      4 3.208520774 2.5570284807 3.007765902 22079.69257  -5346.6925689
26  15783  2.27    3      4 2.970392099 3.1055386755 3.083801098 22489.78504  -6706.7850420
30  12791  1.71    2      4 2.220412103 1.9241321021 2.078183587 17066.03140  -4275.0314049
34  10076  2.52    0      3 1.539865415 3.6329523244 3.099342356 22573.60613 -12497.6061308
36  15312  2.00    2      4 2.852330409 2.5359319348 2.822225689 21078.98962  -5766.9896243
38  10316  1.15    4      2 1.600024238 0.7427255287 1.003786500 11271.31816   -955.3181609
58  10913  2.24    3      4 1.749669311 3.0422490377 3.077025504 22453.24118 -11540.2411754
62  12150  1.13    4      0 2.059737912 0.7005324368 1.867727109 15930.94368  -3780.9436808
68  15079  1.53    2      2 2.793926218 1.5443942750 2.101720217 17192.97518  -2113.9751800
69  13196  1.54    2      0 2.321930117 1.5654908209 2.436366257 18997.87382  -5801.8738150
72  16100  2.31    3      6 3.049851878 3.1899248593 2.980002382 21929.95125  -5829.9512487
79  14359  2.10    3      6 2.613449748 2.7468973943 2.299409546 18259.20385  -3900.2038460
80  16657  2.21    3      2 3.189470480 2.9789593998 3.050175342 22308.42601  -5651.4260111
81  11737  1.71    2      0 1.956214604 1.9241321021 2.636600061 20077.82600  -8340.8259975
82  13675  2.00    3      6 2.441997102 2.5359319348 2.215612407 17807.24767  -4132.2476722
83  13221  1.73    3      4 2.328196661 1.9663251940 2.292362747 18221.19724  -5000.1972435
84  10833  2.00    3      3 1.729616370 2.5359319348 2.997435762 22023.97741 -11190.9774121
85  15145  2.01    2      5 2.810469894 2.5570284807 2.310738782 18320.30758  -3175.3075801
86  10359  1.31    4      3 1.610802694 1.0802702640 1.230782925 12495.61336  -2136.6133564
87  11846  1.09    4      2 1.983536736 0.6161462530 1.134730477 11977.55872   -131.5587182
88  10177  1.21    4      2 1.565182253 0.8693048045 1.826376913 15707.92323  -5530.9232250
89  11184  1.18    4      1 1.817598649 0.8060151666 1.487940757 13882.58277  -2698.5827653
90  17353  1.93    3      4 3.363931068 2.3882561131 2.811410554 21020.65867  -3667.6586717
91  13034  1.50    4      3 2.281322911 1.4811046371 2.156912621 17490.65297  -4456.6529692
92  13165  1.20    4      0 2.314159602 0.8482082585 2.053136435 16930.94070  -3765.9406959
93  14294  1.51    3      2 2.597156733 1.5022011831 2.460649863 19128.84637  -4834.8463742
94  18215  2.09    2      5 3.580001508 2.7258008484 3.094804962 22549.13389  -4334.1338926
95  15510  2.00    2      5 2.901961438 2.5359319348 2.314235717 18339.16814  -2829.1681446
96  15520  2.01    3      5 2.904468055 2.5570284807 2.997021421 22021.74268  -6501.7426842
97  13609  1.72    3      4 2.425453425 1.9452286481 2.295478682 18238.00290  -4629.0029002
98  12939  2.27    4      5 2.257510044 3.1055386755 3.079126925 22464.57509  -9525.5750925
99  10389  1.27    3      3 1.618322547 0.9958840802 1.512744487 14016.36059  -3627.3605876
100 16813  1.71    3      3 3.228573715 1.9241321021 2.625187272 20016.27162  -3203.2716221
> mean(result2$price4);sd(result2$price4)
[1] -5208.207308
[1] 2757.611139


 결과는 의외로 다이아몬드의 가격을 과대 평가하는 것으로 나타났습니다. 비교를 위해 샘플을 별도로 뽑지 않았을 때를 보겠습니다. 


> result2=subset(result1, price>10000)
> result2
   price carat cut2 color2      price2       carat2     pred$net       price3         price4
4  15428  2.26    3      4 2.881407173 3.0844421296 3.1022028017 16419.509200  -991.50920004
13 15485  2.00    3      3 2.895694894 2.5359319348 3.0119402536 16055.074975  -570.07497528
14 16532  2.47    3      6 3.158137760 3.5274695946 2.9974045163 15996.387067   535.61293325
23 16733  2.01    4      4 3.208520774 2.5570284807 3.2033568661 16827.917824   -94.91782366
26 15783  2.27    3      4 2.970392099 3.1055386755 3.1106627080 16453.665996  -670.66599567
30 12791  1.71    2      4 2.220412103 1.9241321021 1.8884862416 11519.139522  1271.86047812
34 10076  2.52    0      3 1.539865415 3.6329523244 2.2320297131 12906.193194 -2830.19319361
36 15312  2.00    2      4 2.852330409 2.5359319348 2.3617131319 13429.788829  1882.21117145
38 10316  1.15    4      2 1.600024238 0.7427255287 0.8681213901  7399.425626  2916.57437427
58 10913  2.24    3      4 1.749669311 3.0422490377 3.0850028618 16350.064598 -5437.06459769
62 12150  1.13    4      0 2.059737912 0.7005324368 1.0233657257  8026.223232  4123.77676770
68 15079  1.53    2      2 2.793926218 1.5443942750 1.9785069077 11882.597151  3196.40284937
69 13196  1.54    2      0 2.321930117 1.5654908209 2.5229419644 14080.748787  -884.74878739
72 16100  2.31    3      6 3.049851878 3.1899248593 2.8330181342 15332.678530   767.32146993
87 17153  2.02    3      5 3.313798715 2.5781250267 2.6798192610 14714.139459  2438.86054056
90 12339  1.88    2      4 2.107112986 2.2827733833 2.1827474975 12707.216692  -368.21669201
> mean(result2$price4);sd(result2$price4)
[1] 330.3268325
[1] 2397.554842
> set.seed(1234)




 되려 별도 샘플링을 하지 않고 학습시킨 결과가 더 좋았습니다. 아무래도 비싼 다이아몬드를 많이 포함시켜 학습시키면 신경망이 높은 가격을 추정하도록 유도하는 것으로 보입니다. 이렇게 데이터를 따로 샘플링하는 것은 도움이 될 때도 있지만, 반대로 더 결과가 나쁘게 나타날 가능성도 있어 상황에 따라 사용해야 합니다. 아무튼 그 때마다 예상치 못한 결과가 나온다는 점에서 신경망 공부가 재미있는 것 같습니다. 

댓글

이 블로그의 인기 게시물

통계 공부는 어떻게 하는 것이 좋을까?

 사실 저도 통계 전문가가 아니기 때문에 이런 주제로 글을 쓰기가 다소 애매하지만, 그래도 누군가에게 도움이 될 수 있다고 생각해서 글을 올려봅니다. 통계학, 특히 수학적인 의미에서의 통계학을 공부하게 되는 계기는 사람마다 다르긴 하겠지만, 아마도 비교적 흔하고 난감한 경우는 논문을 써야 하는 경우일 것입니다. 오늘날의 학문적 연구는 집단간 혹은 방법간의 차이가 있다는 것을 객관적으로 보여줘야 하는데, 그려면 불가피하게 통계적인 방법을 쓸 수 밖에 없게 됩니다. 이런 이유로 분야와 주제에 따라서는 아닌 경우도 있겠지만, 상당수 논문에서는 통계학이 들어가게 됩니다.   문제는 데이터를 처리하고 분석하는 방법을 익히는 데도 상당한 시간과 노력이 필요하다는 점입니다. 물론 대부분의 학과에서 통계 수업이 들어가기는 하지만, 그것만으로는 충분하지 않은 경우가 많습니다. 대학 학부 과정에서는 대부분 논문 제출이 필요없거나 필요하다고 해도 그렇게 높은 수준을 요구하지 않지만, 대학원 이상 과정에서는 SCI/SCIE 급 논문이 필요하게 되어 처음 논문을 작성하는 입장에서는 상당히 부담되는 상황에 놓이게 됩니다.  그리고 이후 논문을 계속해서 쓰게 될 경우 통계 문제는 항상 나를 따라다니면서 괴롭히게 될 것입니다.  사정이 이렇다보니 간혹 통계 공부를 어떻게 하는 것이 좋겠냐는 질문이 들어옵니다. 사실 저는 통계 전문가라고 하기에는 실력은 모자라지만, 대신 앞서서 삽질을 한 경험이 있기 때문에 몇 가지 조언을 해줄 수 있을 것 같습니다.  1. 입문자를 위한 책을 추천해달라  사실 예습을 위해서 미리 공부하는 것은 추천하지 않습니다. 기본적인 통계는 학과별로 다르지 않더라도 주로 쓰는 분석방법은 분야별로 상당한 차이가 있을 수 있어 결국은 자신이 주로 하는 부분을 잘 해야 하기 때문입니다. 그러기 위해서는 학과 커리큘럼에 들어있는 통계 수업을 듣는 것이 더 유리합니다. 잘 쓰지도 않을 방법을 열심히 공부하는 것은 아무래도 효율

150년 만에 다시 울린 희귀 곤충의 울음 소리

  ( The katydid Prophalangopsis obscura has been lost since it was first collected, with new evidence suggesting cold areas of Northern India and Tibet may be the species' habitat. Credit: Charlie Woodrow, licensed under CC BY 4.0 ) ( The Museum's specimen of P. obscura is the only confirmed member of the species in existence. Image . Credit: The Trustees of the Natural History Museum, London )  과학자들이 1869년 처음 보고된 후 지금까지 소식이 끊긴 오래 전 희귀 곤충의 울음 소리를 재현하는데 성공했습니다. 프로팔랑곱시스 옵스큐라 ( Prophalangopsis obscura)는 이상한 이름만큼이나 이상한 곤충으로 매우 희귀한 메뚜기목 곤충입니다. 친척인 여치나 메뚜기와는 오래전 갈라진 독자 그룹으로 매우 큰 날개를 지니고 있으며 인도와 티벳의 고산 지대에 사는 것으로 보입니다.   유일한 표본은 수컷 성체로 2005년에 암컷으로 생각되는 2마리가 추가로 발견되긴 했으나 정확히 같은 종인지는 다소 미지수인 상태입니다. 현재까지 확실한 표본은 수컷 성체 한 마리가 전부인 미스터리 곤충인 셈입니다.   하지만 과학자들은 그 형태를 볼 때 이들 역시 울음 소리를 통해 짝짓기에서 암컷을 유인했을 것으로 보고 있습니다. 그런데 높은 고산 지대에서 먼 거리를 이동하는 곤충이기 때문에 낮은 피치의 울음 소리를 냈을 것으로 보입니다. 문제는 이런 소리는 암컷 만이 아니라 박쥐도 잘 듣는다는 것입니다. 사실 이들은 중생대 쥐라기 부터 존재했던 그룹으로 당시에는 박쥐가 없어 이런 방식이 잘 통했을 것입니다. 하지만 신생대에 박쥐가 등장하면서 플로팔랑곱

9000년 전 소녀의 모습을 복원하다.

( The final reconstruction. Credit: Oscar Nilsson )  그리스 아테나 대학과 스웨덴 연구자들이 1993년 발견된 선사 시대 소녀의 모습을 마치 살아있는 것처럼 복원하는데 성공했습니다. 이 유골은 그리스의 테살리아 지역의 테오페트라 동굴 ( Theopetra Cave )에서 발견된 것으로 연대는 9000년 전으로 추정됩니다. 유골의 주인공은 15-18세 사이의 소녀로 정확한 사인은 알 수 없으나 괴혈병, 빈혈, 관절 질환을 앓고 있었던 것으로 확인되었습니다.   이 소녀가 살았던 시기는 유럽 지역에서 수렵 채집인이 초기 농경으로 이전하는 시기였습니다. 다른 시기와 마찬가지로 이 시기의 사람들도 젊은 시절에 다양한 질환에 시달렸을 것이며 평균 수명 역시 매우 짧았을 것입니다. 비록 젊은 나이에 죽기는 했지만, 당시에는 이런 경우가 드물지 않았을 것이라는 이야기죠.   아무튼 문명의 새벽에 해당하는 시점에 살았기 때문에 이 소녀는 Dawn (그리스어로는  Avgi)라고 이름지어졌다고 합니다. 연구팀은 유골에 대한 상세한 스캔과 3D 프린팅 기술을 적용해서 살아있을 당시의 모습을 매우 현실적으로 복원했습니다. 그리고 그 결과 나타난 모습은.... 당시의 거친 환경을 보여주는 듯 합니다. 긴 턱은 당시를 살았던 사람이 대부분 그랬듯이 질긴 먹이를 오래 씹기 위한 것으로 보입니다.   강하고 억센 10대 소녀(?)의 모습은 당시 살아남기 위해서는 강해야 했다는 점을 말해주는 듯 합니다. 이렇게 억세보이는 주인공이라도 당시에는 전염병이나 혹은 기아에서 자유롭지는 못했기 때문에 결국 평균 수명은 길지 못했겠죠. 외모 만으로 평가해서는 안되겠지만, 당시의 거친 시대상을 보여주는 듯 해 흥미롭습니다.   참고  https://phys.org/news/2018-01-teenage-girl-years-reconstructed.html