기본 콘텐츠로 건너뛰기

R을 이용해 간단한 신경망 만들기 (15)





 H2O를 이용한 신경망에 대해서 간단히 알아보기 위해 앞서 다룬 주제인 피마 인디언 데이터를 다시 다뤄보겠습니다. 필요한 패키지를 불러들인 후 H2O를 시작합니다. 그리고 데이터를 전처리해 H2O에 업로드해야 합니다. 여기서 주의할 점은 컴퓨터 사양에 맞게 자원을 할당하는 것으로 만약 모든 자원을 할당하거나 혹은 잘 모를 때는 min_mem_size = "10G",nthreads = 8 는 안써도 무방합니다. 


#PIMA

library(h2o)
library(caret)
library(mlbench)

localH2O = h2o.init(ip = "localhost", port = 54321, startH2O = TRUE,min_mem_size = "10G",nthreads = 8)

data(PimaIndiansDiabetes)
pima <- pimaindiansdiabetes="" span="">

pima<-pima age="" c="" diabetes="" glucose="" mass="" pedigree="" pregnant="" pressure="" span="">
pima=subset(pima,glucose>0)
pima=subset(pima,pressure>0)
pima=subset(pima,mass>0)

set.seed(1234)

n = nrow(pima)
train <- 600="" n="" sample="" span="">
test <- pima="" span="" train="">
train <- pima="" span="" train="">


 여기까지는 데이터 전처리 과정입니다. test와  train 셋으로 데이터를 나눈 후 이를 다시 H2O에 올려야 합니다. JAVA 기반이기 때문에 바로 R에서 연산하지 못하는 것입니다. 


# Define input (x) and output (y) variables"
x = c("pregnant","glucose","pressure","mass","pedigree","age")
y = "diabetes"

# Convert the outcome variable into factor
train$diabetes <- as.factor="" diabetes="" span="" train="">
test$diabetes <- as.factor="" diabetes="" span="" test="">

train.hex <- as.h2o="" destination_frame="train.hex" span="" x="train,">
test.hex <- as.h2o="" destination_frame="test.hex" span="" x="test,">


 입력 변수와 결과 변수를 먼저 입력한 후 다시 결과 변수를 범주형 변수로 바꾸고 이를 다시 as.h2o 명령어를 이용해서 h2o 형식으로 변경해 신경망 모델에 넣습니다. 


# Train the model
DNN <- h2o.deeplearning="" style="white-space: pre;" x="x,<span">    
                        y = y,   
                        training_frame = train.hex,    
                        validation_frame = test.hex,    
                        standardize = T,    
                        activation = "Rectifier",    
                        epochs = 50,    
                        seed = 1234567,    
                        hidden = c(6,6),    
                        variable_importances = T,
                        nfolds = 5)


h2o.deeplearning의 옵션은 상당히 많습니다. ?h2o.deeplearning를 통해 여러 옵션을 보고 추가하거나 뺄 수 있습니다. 모델 성능을 평가하기 위한 여러 가지 툴도 같이 제공하는 점이 앞서 본 다른 R 기반 신경망 패키지와 다른 점입니다. AUC를 구하는 옵션도 간단합니다. 


# Get the validation accuracy (AUC)
xval_performance <- h2o.performance="" xval="T)</span">
xval_performance@metrics$AUC

# Get the training accuracy (AUC)
train_performance <- h2o.performance="" train="T)</span">
train_performance@metrics$AUC

# Get the testing accuracy(AUC)
test_performance <- h2o.performance="" valid="T)</span">
test_performance@metrics$AUC

> # Get the validation accuracy (AUC)
> xval_performance <- h2o.performance="" xval="T)</span">
> xval_performance@metrics$AUC
[1] 0.8362052
> # Get the training accuracy (AUC)
> train_performance <- h2o.performance="" train="T)</span">
> train_performance@metrics$AUC
[1] 0.8652332
> # Get the testing accuracy(AUC)
> test_performance <- h2o.performance="" valid="T)</span">
> test_performance@metrics$AUC
[1] 0.8014065


 AUC 값이 높을 수록 모델의 예측력이 높고 좋은 모델입니다. 하지만 이렇게 보면 각각의 경우 어떻게 신경망이 평가했는지 판단이 어려울 수 있습니다. 이제 각각의 관측치의 예측값을 보겠습니다. 


# now make a prediction
predictions <- h2o.predict="" span="" test.hex="">
predictions

result<-round predictions="" span="">
result<-as .data.frame="" predictions="" span="">

> result
    predict        neg         pos
1       pos 0.05613899 0.943861012
2       neg 0.97136753 0.028632475
3       pos 0.27311100 0.726889000
4       neg 0.91237584 0.087624155
5       neg 0.79314701 0.206852986
6       pos 0.49058933 0.509410667
7       neg 0.98318380 0.016816201
8       neg 0.80189409 0.198105908
9       pos 0.26699916 0.733000838
10      pos 0.49015022 0.509849778
11      neg 0.98171246 0.018287544
12      neg 0.68528909 0.314710910
13      pos 0.48619757 0.513802434
14      pos 0.45985143 0.540148569
15      neg 0.72237140 0.277628601
16      neg 0.78442054 0.215579462
17      neg 0.94280224 0.057197760
18      pos 0.62492024 0.375079758
19      pos 0.60563906 0.394360937
20      neg 0.94259129 0.057408707

 이하 생략 


 결과값은 0과 1이 아니라 소수접 이하값으로 나오기 때문에 round를 이용해서 결과를 정리하거나 predict 값을 이용할 수 있습니다. 여기서 H2O 객체를 다시 R 객체로 바꾸기 위해 as.data.frame을 사용한 부분을 주목해 주십시요. 참고로 웹 브라우저 상에서도 결과를 확인할 수 있습니다. http://localhost:54321로 들어가 여러 가지 옵션을 선택해 인공지능 관련 연산을 수행하거나 결과를 볼 수 있습니다. 




 여기서 getPredictions 탭을 열면 예측 결과를 볼 수 있습니다. 




 specificity 와 sensitivity, 분류 정확도 역시 쉽게 구할 수 있습니다. 


h2o.accuracy(test_performance, thresholds = 0.5)
h2o.specificity(test_performance, thresholds = 0.5)
h2o.sensitivity(test_performance, thresholds = 0.5)
h2o.confusionMatrix(test_performance)


> h2o.accuracy(test_performance, thresholds = 0.5)
[[1]]
[1] 0.7419355

There were 50 or more warnings (use warnings() to see the first 50)
> h2o.specificity(test_performance, thresholds = 0.5)
[[1]]
[1] 0.8481013

Warning message:
In h2o.find_row_by_threshold(object, t) :
  Could not find exact threshold: 0.5 for this set of metrics; using closest threshold found: 0.498582185722662. Run `h2o.predict` and apply your desired threshold on a probability column.
> h2o.sensitivity(test_performance, thresholds = 0.5)
[[1]]
[1] 0.5555556

Warning message:
In h2o.find_row_by_threshold(object, t) :
  Could not find exact threshold: 0.5 for this set of metrics; using closest threshold found: 0.498582185722662. Run `h2o.predict` and apply your desired threshold on a probability column.
> h2o.confusionMatrix(test_performance)
Confusion Matrix (vertical: actual; across: predicted)  for max f1 @ threshold = 0.375079757767963:
       neg pos    Error     Rate
neg     58  21 0.265823   =21/79
pos     12  33 0.266667   =12/45
Totals  70  54 0.266129  =33/124


 분류 기준을 0.5 정도로 잡아주면 약간 다르다고 경고가 뜰 수 있으나 사실 큰 차이가 없습니다. 아무튼 분류 정확도는 74% 정도로 앞서 본 nnet 예제의 결과와 크게 다르지 않습니다. 아무리 여러 개의 CPU를 할당하고 메모리를 많이 써도 기본적으로 학습 데이터의 질이 높지 않기 때문에 한계가 있는 것입니다. 당뇨의 위험 인자는 여기서 넣은 변수만이 아닐 것입니다. 유전적 요인이나 운동 습관, 식이 패턴 등 매우 여러 가지 요소가 당뇨 발생에 영향을 미치지만, 여기서는 몇 가지 변수만 가지고 예측을 해야 하니 예측력이 이보다 더 높아지기 어려운 것이죠. 다른 데이터 분석과 마찬가지도 신경망을 이용한 예측 모델 역시 데이터의 양과 질이 중요합니다. 




댓글

이 블로그의 인기 게시물

세상에서 가장 큰 벌

( Wallace's giant bee, the largest known bee species in the world, is four times larger than a European honeybee(Credit: Clay Bolt) ) (Photographer Clay Bolt snaps some of the first-ever shots of Wallace's giant bee in the wild(Credit: Simon Robson)  월리스의 거대 벌 (Wallace’s giant bee)로 알려진 Megachile pluto는 매우 거대한 인도네시아 벌로 세상에서 가장 거대한 말벌과도 경쟁할 수 있는 크기를 지니고 있습니다. 암컷의 경우 몸길이 3.8cm, 날개너비 6.35cm으로 알려진 벌 가운데 가장 거대하지만 수컷의 경우 이보다 작아서 몸길이가 2.3cm 정도입니다. 아무튼 일반 꿀벌의 4배가 넘는 몸길이를 지닌 거대 벌이라고 할 수 있습니다.   메가칠레는 1981년 몇 개의 표본이 발견된 이후 지금까지 추가 발견이 되지 않아 멸종되었다고 보는 과학자들도 있었습니다. 2018년에 eBay에 표본이 나왔지만, 언제 잡힌 것인지는 알 수 없었습니다. 사실 이 벌은 1858년 처음 발견된 이후 1981년에야 다시 발견되었을 만큼 찾기 어려운 희귀종입니다. 그런데 시드니 대학과 국제 야생 동물 보호 협회 (Global Wildlife Conservation)의 연구팀이 오랜 수색 끝에 2019년 인도네시아의 오지에서 메가칠레 암컷을 야생 상태에서 발견하는데 성공했습니다.   메가칠레 암컷은 특이하게도 살아있는 흰개미 둥지가 있는 나무에 둥지를 만들고 살아갑니다. 이들의 거대한 턱은 나무의 수지를 모아 둥지를 짓는데 유리합니다. 하지만 워낙 희귀종이라 이들의 생태에 대해서는 거의 알려진 바가 없습니다.  (동영상)...

몸에 철이 많으면 조기 사망 위험도가 높다?

 철분은 인체에 반드시 필요한 미량 원소입니다. 헤모글로빈에 필수적인 물질이기 때문에 철분 부족은 흔히 빈혈을 부르며 반대로 피를 자꾸 잃는 경우에는 철분 부족 현상이 발생합니다. 하지만 철분 수치가 높다는 것은 반드시 좋은 의미는 아닙니다. 모든 일에는 적당한 수준이 있게 마련이고 철 역시 너무 많으면 여러 가지 질병을 일으킬 수 있습니다. 철 대사에 문제가 생겨 철이 과다하게 축적되는 혈색소증 ( haemochromatosis ) 같은 드문 경우가 아니라도 과도한 철분 섭취나 수혈로 인한 철분 과잉은 건강에 문제를 일으킬 수 있습니다. 하지만 높은 철 농도가 수명에 미치는 영향에 대해서는 잘 알려지지 않았습니다.   하버드 대학의 이야스 다글라스( Iyas Daghlas )와 임페리얼 칼리지 런던의 데펜더 길 ( Dipender Gill )은 체내 철 함유량에 영향을 미치는 유전적 변이와 수명의 관계를 조사했습니다. 연구팀은 48972명의 유전 정보와 혈중 철분 농도, 그리고 기대 수명의 60/90%에서 생존 확률을 조사했습니다. 그 결과 유전자로 예측한 혈중 철분 농도가 증가할수록 오래 생존할 가능성이 낮은 것으로 나타났습니다. 이것이 유전자 자체 때문인지 아니면 높은 혈중/체내 철 농도 때문인지는 명확하지 않지만, 높은 혈중 철 농도가 꼭 좋은 뜻이 아니라는 것을 시사하는 결과입니다.   연구팀은 이 데이터를 근거로 건강한 사람이 영양제나 종합 비타민제를 통해 과도한 철분을 섭취할 이유는 없다고 주장했습니다. 어쩌면 높은 철 농도가 조기 사망 위험도를 높일지도 모르기 때문입니다. 그러나 임산부나 빈혈 환자 등 진짜 철분이 필요한 사람들까지 철분 섭취를 꺼릴 필요가 없다는 점도 강조했습니다. 연구 내용은 정상보다 높은 혈중 철농도가 오래 유지되는 경우를 가정한 것으로 본래 철분 부족이 있는 사람을 대상으로 한 것이 아니기 때문입니다. 낮은 철분 농도와 빈혈이 건강에 미치는 악영향은 이미 잘 알려져 있기 때문에 철...

인슐린 주사 일주일에 한 번만 맞아도 된다?

   당뇨병은 관리가 까다로운 만성 질병 중 하나입니다. 특히 인슐린 주사가 필요한 경우에는 더 관리가 어렵습니다. 하루에 주사를 몇 번씩 맞아야 하면 찌르는 것도 고통이고 실수로 건너뛰거나 용량을 실수하는 경우도 드물지 않습니다. 특히 고령 환자의 경우 더 위험할 수 있습니다. 이런 문제를 극복하기 위해 여러 제약 회사들이 새로운 투여 방법과 인슐린 제제를 내놓고 있습니다.   최근 2상 임상 시험을 마친 노보 노디스크 ( Novo Nordisk )의 인슐린 아이코덱 ( icodec )은 일주일에 한 번 투여하는 장시간 인슐린 제제입니다. 아이코덱은 효소에 의해 분해되는 것을 막는 변형 인슐린 분자로 혈액에서 알부민과 결합해 서서히 분리되기 때문에 한 번 주사로도 일주일이나 효과를 유지할 수 있습니다.   하지만 이렇게 장시간 작용하는 인슐린 제제의 경우 환자의 식사나 운동 같은 상황 변화에 인슐린 농도가 적절하게 유지되지 않을 가능성이 있습니다. 이번 2상 임상시험에서는 247명의 당뇨 환자를 두 그룹으로 나눈 후 실험군은 일주일에 한 번씩 아이코덱을 투여받고 매일 위약을 투여받았습니다. 그리고 대조군은 반대로 일주일에 한 번씩 위약을 투여받고 하루에 한 번씩 장시간 인슐린 제제인 란투스 (Lantus, glargine) 100U을 투여받았습니다.   26주에 걸친 임상 실험 결과 하루에 한 번 란투스를 투여받은 그룹이나 일주일에 한 번 아이코덱을 투여받은 그룹에서 특별한 합병증 차이를 발견할 수 없었습니다. 혈당 조절의 지표인 당화 혈색소 (HbA1c) 농도 역시 아이코덱 그룹에서 1.33% 감소한 반면 란투스 그룹에서 1.15% 정도 감소해서 큰 차이는 없었습니다. 그렇다면 하루에 한 번 투여하는 대신 일주일에 한 번 투여하는 것이 더 편리하고 실수로 두 번 투여하거나 건너 뛸 위험성이 적을 것입니다. 이 연구 결과는 뉴잉글랜드 저널 오브 메디슨 ( New England Journal...