앞서 만든 DNN 모델을 가지고 이제 예측을 해보겠습니다. 흥미롭게도 H2O 예제들을 보면 어떻게 예측을 하는지에 대한 구체적인 설명들이 빠진 경우가 많은데, 여기서 한 번 살펴보겠습니다. 우선 H2O를 불러들이고 이전에 학습했던 내용을 다시 학습합니다. 파일이 필요하면 이전 포스트에 있습니다. 구글 블로거에서 보시는 분들은 네이버 블로그에서 파일을 받을 수 있습니다.
library(h2o)
localH2O = h2o.init(ip = "localhost", port = 54321, startH2O = TRUE,min_mem_size = "10G",nthreads = 8)
trainfile = "H:/data/deeplearning/MNIST_train1.csv"
train = h2o.importFile(path = trainfile,sep=",")
testfile = "H:/data/deeplearning/MNIST_test1.csv"
test = h2o.importFile(path = testfile,sep=",")
# To see a brief summary of the data, run the following command
summary(train)
summary(test)
y <- span="">->
x <- names="" setdiff="" span="" train="" y="">->
# We encode the response column as categorical for multinomial
#classification
train[,y] <- as.factor="" span="" train="" y="">->
test[,y] <- as.factor="" span="" test="" y="">->
# Train a Deep Learning model and valid
model_cv <- h2o.deeplearning="" x="1:784,</span">->
y = 785,
training_frame = train,
activation = "RectifierWithDropout",
hidden = c(800,200,800),
input_dropout_ratio = 0.2,
l1 = 1e-5,
epochs = 200)
model_cv
이제 예측을 위해 prediction 기능을 이용해 test 파일을 사용합니다. 각각의 이미지가 의미하는 숫자를 인식하는 것입니다.
# now make a prediction
y <- span="">->
x <- names="" setdiff="" span="" test="" y="">->
predictions <- h2o.predict="" model_cv="" span="" test="">->
predictions
여기서 예측 결과는 정수가 아니라 소수점 아래로 나오기 때문에 데이터 프레임으로 바꾼 후 정수로 반올림 해보겠습니다. 그리고 이를 실제 값과 비교하기 위해 test 파일을 다시 test1 데이터 프레임으로 바꾸고 두 값을 합친 후 두 값이 같은지 (y와 predict라는 변수명으로 들어가 있습니다) 아닌지를 표시하는 predict2라는 변수를 만듭니다. 최종적으로 1000개중 몇 개를 올바르게 예측했는지 검사합니다.
result<-as .data.frame="" predictions="" span="">-as>
result<-round result="" span="">-round>
result
test1<-as .data.frame="" span="" test="">-as>
result=cbind(test1, result)
result$predict2<-ifelse result="" y="=result$predict,1,0)</span">-ifelse>
sum(result$predict2)/1000
> test1<-as .data.frame="" span="" test="">-as>
> result=cbind(test1, result)
> result$predict2<-ifelse result="" y="=result$predict,1,0)</span">-ifelse>
> sum(result$predict2)/1000
[1] 0.836
83.6%의 확률로 숫자를 맞게 분류하는 것으로 나타났습니다. 나쁘진 않지만 더 개선할 수 있는 여지가 있을 것 같습니다. 여기서 한 가지 더 생각할 수 있는 방법은 학습량을 늘리는 것입니다. 이번에는 데이터를 12000개로 늘려 학습해 보겠습니다. 역시 같은 방법으로 keras 패키지에서 12000개의 관측치가 있는 연습 파일을 만들어 보겠습니다. 물론 시간이 많은 분들은 전체 파일을 그냥 사용해도 무방합니다.
library(keras)
model <- keras_model_sequential="" span="">->
mnist <- dataset_mnist="" span="">->
#sampling
train_file <- as.data.frame="" mnist="" span="" train="">->
test_file <- as.data.frame="" mnist="" span="" test="">->
set.seed(1000)
train<-sample 12000="" nrow="" replace="FALSE)</span" train_file="">-sample>
train1<-train_file span="" train="">-train_file>
write.csv(train1,"H:/data/deeplearning/MNIST_train2.csv",row.names=F,na="")
trainfile = "H:/data/deeplearning/MNIST_train2.csv"
train = h2o.importFile(path = trainfile,sep=",")
이후 같은 방법으로 학습을 시키고 테스트를 해봤습니다.
> test1<-as .data.frame="" span="" test="">-as>
> result=cbind(test1, result)
> result$predict2<-ifelse result="" y="=result$predict,1,0)</span">-ifelse>
> sum(result$predict2)/1000
[1] 0.86
예측률 86%로 좀 더 개선된 것을 볼 수 있습니다. 다만 학습 시간도 그만큼 길어질 수밖에 없기 때문에 여러 가지 상황을 고려해야 하겠죠.
댓글
댓글 쓰기