기본 콘텐츠로 건너뛰기

R을 이용한 딥러닝 (2)



 앞서 포스트에서 데이터를 잘 만들었다면 이를 저장한 후 다시 불러들이면 되겠지만, 혹시 잘 안되시는 경우를 위해 파일을 별도로 올렸습니다. 압축을 풀면 MNIST_train1.csv, MNIST_test1.csv 두 개의 파일이 나오는데 각각 데이터 갯수를 6000개와 1000개로 줄인 것으로 학습 능력은 그만큼 떨어지는 대신 시간은 훨씬 짧게 걸립니다. 만약 전체 6만개와 1만개 파일을 이용해서 실습을 하는 경우 한 번 돌리는데 몇 시간이 필요한 경우가 생겨 실제로는 예제를 연습하기가 쉽지 않습니다. 그래서 파일을 10% 정도로 줄인 것입니다. 


 일단 파일이 준비되면 H2O 라이브러리를 불러들이고 local H2O를 시작합니다. 자원 할당은 시스템 사양에 따라 달라지겠지만, 저는 컴퓨터 논리 CPU의 절반인 8개를 할당했습니다. 각자 사양에 맞춰 진행하면 될 것 같습니다. 


library(h2o)

localH2O = h2o.init(ip = "localhost", port = 54321, startH2O = TRUE,min_mem_size = "10G",nthreads = 8)

trainfile = "H:/data/deeplearning/MNIST_train1.csv"
train = h2o.importFile(path = trainfile,sep=",")

testfile = "H:/data/deeplearning/MNIST_test1.csv"
test = h2o.importFile(path = testfile,sep=",")


 이제 실제 학습을 진행해 보겠습니다. 


# To see a brief summary of the data, run the following command
summary(train)
summary(test)

y <- span="">
x <- names="" setdiff="" span="" train="" y="">

# We encode the response column as categorical for multinomial
#classification
train[,y] <- as.factor="" span="" train="" y="">
test[,y] <- as.factor="" span="" test="" y="">

# Train a Deep Learning model and valid

  model_cv <- h2o.deeplearning="" x="1:784,</span">
                               y = 785,
                               training_frame = train,
                               activation = "RectifierWithDropout",
                               hidden =  c(800,200,800),
                               input_dropout_ratio = 0.2,
                               l1 = 1e-5,
                               epochs = 200)

  model_cv


 여기서 뉴런은 800/200/800개로 된 딥러닝 모델을 만들었는데, 훈련 자료만 입력해서 일단 학습을 시켜봤습니다. epochs는 몇 회 학습을 할 것인지를 결정하는 옵션으로 hidden의 신경망과 더불어 학습 시간을 좌우하는 중요 옵션이니 잘 활용할 필요가 있습니다. 비슷한 결과라면 당연히 시간이 짧은 편이 유리합니다. 제대로 진행됐다면 아래와 비슷한 결과물이 출력될 것입니다. 





> # Train a Deep Learning model and valid
>   model_cv <- h2o.deeplearning="" x="1:784,</p">
+                                y = 785,
+                                training_frame = train,
+                                activation = "RectifierWithDropout",
+                                hidden =  c(800,200,800),
+                                input_dropout_ratio = 0.2,
+                                l1 = 1e-5,
+                                epochs = 200)
  |===========================================================================================================================================================| 100%
Warning message:
In .h2o.startModelJob(algo, params, h2oRestApiVersion) :
  Dropping bad and constant columns: [x.88, x.87, x.86, x.85, x.84, x.83, x.82, x.760, x.365, x.761, x.762, x.116, x.754, x.755, x.756, x.757, x.758, x.759, x.197, x.110, x.111, x.112, x.113, x.114, x.477, x.115, x.753, x.589, x.505, x.1, x.3, x.2, x.5, x.4, x.7, x.23, x.6, x.22, x.21, x.20, x.141, x.142, x.780, x.29, x.143, x.781, x.28, x.782, x.27, x.783, x.26, x.421, x.784, x.25, x.24, x.776, x.777, x.778, x.779, x.19, x.18, x.253, x.770, x.17, x.771, x.16, x.772, x.15, x.773, x.14, x.774, x.13, x.533, x.775, x.644, x.645, x.646, x.769, x.44, x.281, x.561, x.49, x.169, x.34, x.33, x.32, x.31, x.30, x.393, x.672, x.673, x.674, x.35, x.700, x.701, x.702, x.703, x.309, x.61, x.60, x.225, x.699, x.732, x.337, x.733, x.616, x.617, x.618, x.56, x.55, x.54, x.53, x.52, x.51, x.50, x.59, x.58, x.730, x.57, x.731, x.449, x.726, x.727, x.728, x.729].

>   model_cv
Model Details:
==============

H2ORegressionModel: deeplearning
Model ID:  DeepLearning_model_R_1556977766669_1 
Status of Neuron Layers: predicting y, regression, gaussian distribution, Quadratic loss, 849,801 weights/biases, 9.8 MB, 603,562 training samples, mini-batch size 1
  layer units             type dropout       l1       l2 mean_rate rate_rms momentum mean_weight weight_rms mean_bias bias_rms
1     1   659            Input 20.00 %       NA       NA        NA       NA       NA          NA         NA        NA       NA
2     2   800 RectifierDropout 50.00 % 0.000010 0.000000  0.171791 0.260461 0.000000    0.005984   0.040483  0.213295 0.083011
3     3   200 RectifierDropout 50.00 % 0.000010 0.000000  0.010684 0.010028 0.000000   -0.010907   0.049532  0.918480 0.064619
4     4   800 RectifierDropout 50.00 % 0.000010 0.000000  0.043320 0.028553 0.000000   -0.019463   0.049687  0.373009 0.177849
5     5     1           Linear      NA 0.000010 0.000000  0.002385 0.000937 0.000000    0.000776   0.024837 -0.164671 0.000000


H2ORegressionMetrics: deeplearning
** Reported on training data. **
** Metrics reported on full training frame **

MSE:  0.2040526
RMSE:  0.4517218
MAE:  0.3310534
RMSLE:  0.0947054
Mean Residual Deviance :  0.2040526


 
 이 경우 모델에 대해서 주는 정보가 앞서 봤던 지표인 MSE. RMSE 이외에 MAE (mean absolute error)와 RMSLE (root mean squared log error)가 있는데 당연히 이것이 작을 수록 에러가 적다는 의미이기 때문에 더 좋은 모델이 됩니다. 참고로 위의 수치는 시드값을 주지 않는 이상 할 때마다 조금씩 달라질 수 있다는 점을 알아야 합니다. DNN 역시 우리와 마찬가지로 공부할 때마다 조금씩 다른 결과를 보여줄 수 있습니다. 비록 거의 비슷하긴 하지만 말이죠. 여기서 뉴런을 더 딥하게 만들어 4개의 층을 만들어 보겠습니다. 


 참고로 웹브라우저 상에서도 http://localhost:54321로 결과를 볼 수 있습니다. getmodel로 들어가 모델들을 확인할 수 있습니다. 






> model_cv <- h2o.deeplearning="" x="1:784,</p">
+                                y = 785,
+                                training_frame = train,
+                                activation = "RectifierWithDropout",
+                                hidden =  c(800,200,200,800),
+                                input_dropout_ratio = 0.2,
+                                l1 = 1e-5,
+                                epochs = 200)
  |===========================================================================================================================================================| 100%
Warning message:
In .h2o.startModelJob(algo, params, h2oRestApiVersion) :
  Dropping bad and constant columns: [x.88, x.87, x.86, x.85, x.84, x.83, x.82, x.760, x.365, x.761, x.762, x.116, x.754, x.755, x.756, x.757, x.758, x.759, x.197, x.110, x.111, x.112, x.113, x.114, x.477, x.115, x.753, x.589, x.505, x.1, x.3, x.2, x.5, x.4, x.7, x.23, x.6, x.22, x.21, x.20, x.141, x.142, x.780, x.29, x.143, x.781, x.28, x.782, x.27, x.783, x.26, x.421, x.784, x.25, x.24, x.776, x.777, x.778, x.779, x.19, x.18, x.253, x.770, x.17, x.771, x.16, x.772, x.15, x.773, x.14, x.774, x.13, x.533, x.775, x.644, x.645, x.646, x.769, x.44, x.281, x.561, x.49, x.169, x.34, x.33, x.32, x.31, x.30, x.393, x.672, x.673, x.674, x.35, x.700, x.701, x.702, x.703, x.309, x.61, x.60, x.225, x.699, x.732, x.337, x.733, x.616, x.617, x.618, x.56, x.55, x.54, x.53, x.52, x.51, x.50, x.59, x.58, x.730, x.57, x.731, x.449, x.726, x.727, x.728, x.729].

>   model_cv
Model Details:
==============

H2ORegressionModel: deeplearning
Model ID:  DeepLearning_model_R_1556977766669_2 
Status of Neuron Layers: predicting y, regression, gaussian distribution, Quadratic loss, 890,001 weights/biases, 10.3 MB, 601,758 training samples, mini-batch size 1
  layer units             type dropout       l1       l2 mean_rate rate_rms momentum mean_weight weight_rms mean_bias bias_rms
1     1   659            Input 20.00 %       NA       NA        NA       NA       NA          NA         NA        NA       NA
2     2   800 RectifierDropout 50.00 % 0.000010 0.000000  0.144651 0.231371 0.000000    0.006540   0.039000  0.307433 0.061740
3     3   200 RectifierDropout 50.00 % 0.000010 0.000000  0.008937 0.007291 0.000000   -0.008280   0.049811  0.952130 0.041575
4     4   200 RectifierDropout 50.00 % 0.000010 0.000000  0.015841 0.013679 0.000000   -0.018627   0.072190  0.737129 0.079147
5     5   800 RectifierDropout 50.00 % 0.000010 0.000000  0.069895 0.045053 0.000000   -0.022287   0.048712  0.720120 0.096289
6     6     1           Linear      NA 0.000010 0.000000  0.001392 0.000391 0.000000   -0.002196   0.015756  0.215260 0.000000


H2ORegressionMetrics: deeplearning
** Reported on training data. **
** Metrics reported on full training frame **

MSE:  0.2291781
RMSE:  0.4787255
MAE:  0.3190679
RMSLE:  0.1753631
Mean Residual Deviance :  0.2291781


 
 MSE/RMSE/MAE/RMSLE를 보면 오히려 약간 늘어났다는 사실을 알 수 있습니다. 더 깊은 모델이 더 좋은 결과를 보여주지 않은 것이죠. 더 얕은 모델은 어떨까요? 


> model_cv <- h2o.deeplearning="" x="1:784,</p">
+                                y = 785,
+                                training_frame = train,
+                                activation = "RectifierWithDropout",
+                                hidden =  c(800,800),
+                                input_dropout_ratio = 0.2,
+                                l1 = 1e-5,
+                                epochs = 200)
  |===========================================================================================================================================================| 100%
Warning message:
In .h2o.startModelJob(algo, params, h2oRestApiVersion) :
  Dropping bad and constant columns: [x.88, x.87, x.86, x.85, x.84, x.83, x.82, x.760, x.365, x.761, x.762, x.116, x.754, x.755, x.756, x.757, x.758, x.759, x.197, x.110, x.111, x.112, x.113, x.114, x.477, x.115, x.753, x.589, x.505, x.1, x.3, x.2, x.5, x.4, x.7, x.23, x.6, x.22, x.21, x.20, x.141, x.142, x.780, x.29, x.143, x.781, x.28, x.782, x.27, x.783, x.26, x.421, x.784, x.25, x.24, x.776, x.777, x.778, x.779, x.19, x.18, x.253, x.770, x.17, x.771, x.16, x.772, x.15, x.773, x.14, x.774, x.13, x.533, x.775, x.644, x.645, x.646, x.769, x.44, x.281, x.561, x.49, x.169, x.34, x.33, x.32, x.31, x.30, x.393, x.672, x.673, x.674, x.35, x.700, x.701, x.702, x.703, x.309, x.61, x.60, x.225, x.699, x.732, x.337, x.733, x.616, x.617, x.618, x.56, x.55, x.54, x.53, x.52, x.51, x.50, x.59, x.58, x.730, x.57, x.731, x.449, x.726, x.727, x.728, x.729].

>   model_cv
Model Details:
==============

H2ORegressionModel: deeplearning
Model ID:  DeepLearning_model_R_1556977766669_3 
Status of Neuron Layers: predicting y, regression, gaussian distribution, Quadratic loss, 1,169,601 weights/biases, 13.5 MB, 768,000 training samples, mini-batch size 1
  layer units             type dropout       l1       l2 mean_rate rate_rms momentum mean_weight weight_rms mean_bias bias_rms
1     1   659            Input 20.00 %       NA       NA        NA       NA       NA          NA         NA        NA       NA
2     2   800 RectifierDropout 50.00 % 0.000010 0.000000  0.166924 0.257318 0.000000    0.006099   0.043079  0.036390 0.085338
3     3   800 RectifierDropout 50.00 % 0.000010 0.000000  0.029768 0.020146 0.000000   -0.010178   0.041947  0.977375 0.076209
4     4     1           Linear      NA 0.000010 0.000000  0.000833 0.000401 0.000000   -0.000158   0.023762  0.112036 0.000000


H2ORegressionMetrics: deeplearning
** Reported on training data. **
** Metrics reported on full training frame **

MSE:  0.206431
RMSE:  0.4543467
MAE:  0.315353
RMSLE:  NaN
Mean Residual Deviance :  0.206431


 생각보다 큰 차이가 있지는 않습니다. 여기서 epoch를 늘려보면 어떨까요?  


> model_cv <- h2o.deeplearning="" x="1:784,</p">
+                                y = 785,
+                                training_frame = train,
+                                activation = "RectifierWithDropout",
+                                hidden =  c(800,800),
+                                input_dropout_ratio = 0.2,
+                                l1 = 1e-5,
+                                epochs = 300)
  |===========================================================================================================================================================| 100%
Warning message:
In .h2o.startModelJob(algo, params, h2oRestApiVersion) :
  Dropping bad and constant columns: [x.88, x.87, x.86, x.85, x.84, x.83, x.82, x.760, x.365, x.761, x.762, x.116, x.754, x.755, x.756, x.757, x.758, x.759, x.197, x.110, x.111, x.112, x.113, x.114, x.477, x.115, x.753, x.589, x.505, x.1, x.3, x.2, x.5, x.4, x.7, x.23, x.6, x.22, x.21, x.20, x.141, x.142, x.780, x.29, x.143, x.781, x.28, x.782, x.27, x.783, x.26, x.421, x.784, x.25, x.24, x.776, x.777, x.778, x.779, x.19, x.18, x.253, x.770, x.17, x.771, x.16, x.772, x.15, x.773, x.14, x.774, x.13, x.533, x.775, x.644, x.645, x.646, x.769, x.44, x.281, x.561, x.49, x.169, x.34, x.33, x.32, x.31, x.30, x.393, x.672, x.673, x.674, x.35, x.700, x.701, x.702, x.703, x.309, x.61, x.60, x.225, x.699, x.732, x.337, x.733, x.616, x.617, x.618, x.56, x.55, x.54, x.53, x.52, x.51, x.50, x.59, x.58, x.730, x.57, x.731, x.449, x.726, x.727, x.728, x.729].

>   model_cv
Model Details:
==============

H2ORegressionModel: deeplearning
Model ID:  DeepLearning_model_R_1556977766669_4 
Status of Neuron Layers: predicting y, regression, gaussian distribution, Quadratic loss, 1,169,601 weights/biases, 13.5 MB, 1,072,201 training samples, mini-batch size 1
  layer units             type dropout       l1       l2 mean_rate rate_rms momentum mean_weight weight_rms mean_bias bias_rms
1     1   659            Input 20.00 %       NA       NA        NA       NA       NA          NA         NA        NA       NA
2     2   800 RectifierDropout 50.00 % 0.000010 0.000000  0.183996 0.275787 0.000000    0.005372   0.042287 -0.121058 0.098303
3     3   800 RectifierDropout 50.00 % 0.000010 0.000000  0.033856 0.020338 0.000000   -0.011571   0.044719  0.998392 0.103063
4     4     1           Linear      NA 0.000010 0.000000  0.000928 0.000425 0.000000    0.000717   0.024313  0.107939 0.000000


H2ORegressionMetrics: deeplearning
** Reported on training data. **
** Metrics reported on full training frame **

MSE:  0.3171086
RMSE:  0.5631239
MAE:  0.4387138
RMSLE:  NaN
Mean Residual Deviance :  0.3171086

 

 되려 별로 결과가 좋지 않습니다. 이번에는 오토인코더와 비슷한 모델을 사용해보겠습니다. 기본적인 아이디어는 모래 시계처럼 중간이 잘록한 형태의 신경망을 만들어 입력 신호를 다시 복원하는 것입니다. 여기서는 400/200/2/200/400의 신경망을 만들어 보겠습니다. 

# autoencoder


> model_cv <- h2o.deeplearning="" x="1:784,</p">
+                                y = 785,
+                                training_frame = train,
+                                activation = "RectifierWithDropout",
+                                hidden =  c(400, 200, 2, 200, 400),
+                                input_dropout_ratio = 0.2,
+                                l1 = 1e-5,
+                                epochs = 200)
  |===========================================================================================================================================================| 100%
Warning message:
In .h2o.startModelJob(algo, params, h2oRestApiVersion) :
  Dropping bad and constant columns: [x.88, x.87, x.86, x.85, x.84, x.83, x.82, x.760, x.365, x.761, x.762, x.116, x.754, x.755, x.756, x.757, x.758, x.759, x.197, x.110, x.111, x.112, x.113, x.114, x.477, x.115, x.753, x.589, x.505, x.1, x.3, x.2, x.5, x.4, x.7, x.23, x.6, x.22, x.21, x.20, x.141, x.142, x.780, x.29, x.143, x.781, x.28, x.782, x.27, x.783, x.26, x.421, x.784, x.25, x.24, x.776, x.777, x.778, x.779, x.19, x.18, x.253, x.770, x.17, x.771, x.16, x.772, x.15, x.773, x.14, x.774, x.13, x.533, x.775, x.644, x.645, x.646, x.769, x.44, x.281, x.561, x.49, x.169, x.34, x.33, x.32, x.31, x.30, x.393, x.672, x.673, x.674, x.35, x.700, x.701, x.702, x.703, x.309, x.61, x.60, x.225, x.699, x.732, x.337, x.733, x.616, x.617, x.618, x.56, x.55, x.54, x.53, x.52, x.51, x.50, x.59, x.58, x.730, x.57, x.731, x.449, x.726, x.727, x.728, x.729].

>   model_cv
Model Details:
==============

H2ORegressionModel: deeplearning
Model ID:  DeepLearning_model_R_1556977766669_5 
Status of Neuron Layers: predicting y, regression, gaussian distribution, Quadratic loss, 426,003 weights/biases, 5.0 MB, 1,080,000 training samples, mini-batch size 1
  layer units             type dropout       l1       l2 mean_rate rate_rms momentum mean_weight weight_rms mean_bias bias_rms
1     1   659            Input 20.00 %       NA       NA        NA       NA       NA          NA         NA        NA       NA
2     2   400 RectifierDropout 50.00 % 0.000010 0.000000  0.117370 0.212231 0.000000    0.010417   0.054571  0.119259 0.110808
3     3   200 RectifierDropout 50.00 % 0.000010 0.000000  0.009224 0.009703 0.000000   -0.018213   0.067514  1.006075 0.091013
4     4     2 RectifierDropout 50.00 % 0.000010 0.000000  0.001595 0.001157 0.000000    0.017373   0.141770  1.912306 0.232235
5     5   200 RectifierDropout 50.00 % 0.000010 0.000000  0.041396 0.188829 0.000000   -0.145912   0.147096  0.834432 0.844081
6     6   400 RectifierDropout 50.00 % 0.000010 0.000000  0.080982 0.110674 0.000000   -0.029381   0.073252  0.869751 0.098928
7     7     1           Linear      NA 0.000010 0.000000  0.002397 0.001085 0.000000    0.005996   0.029974 -0.073048 0.000000


H2ORegressionMetrics: deeplearning
** Reported on training data. **
** Metrics reported on full training frame **

MSE:  2.45604
RMSE:  1.567176
MAE:  1.434909
RMSLE:  0.475296
Mean Residual Deviance :  2.45604


 되려 훨씬 좋지 않은 결과가 나왔습니다. epoch를 600으로 늘리면 이것보다는 좋지만 그래도 여전히 좋지 않은 결과가 나옵니다.  


> model_cv <- h2o.deeplearning="" x="1:784,</p">
+                                y = 785,
+                                training_frame = train,
+                                activation = "RectifierWithDropout",
+                                hidden =  c(400, 200, 2, 200, 400),
+                                input_dropout_ratio = 0.2,
+                                l1 = 1e-5,
+                                epochs = 600)
  |===========================================================================================================================================================| 100%
Warning message:
In .h2o.startModelJob(algo, params, h2oRestApiVersion) :
  Dropping bad and constant columns: [x.88, x.87, x.86, x.85, x.84, x.83, x.82, x.760, x.365, x.761, x.762, x.116, x.754, x.755, x.756, x.757, x.758, x.759, x.197, x.110, x.111, x.112, x.113, x.114, x.477, x.115, x.753, x.589, x.505, x.1, x.3, x.2, x.5, x.4, x.7, x.23, x.6, x.22, x.21, x.20, x.141, x.142, x.780, x.29, x.143, x.781, x.28, x.782, x.27, x.783, x.26, x.421, x.784, x.25, x.24, x.776, x.777, x.778, x.779, x.19, x.18, x.253, x.770, x.17, x.771, x.16, x.772, x.15, x.773, x.14, x.774, x.13, x.533, x.775, x.644, x.645, x.646, x.769, x.44, x.281, x.561, x.49, x.169, x.34, x.33, x.32, x.31, x.30, x.393, x.672, x.673, x.674, x.35, x.700, x.701, x.702, x.703, x.309, x.61, x.60, x.225, x.699, x.732, x.337, x.733, x.616, x.617, x.618, x.56, x.55, x.54, x.53, x.52, x.51, x.50, x.59, x.58, x.730, x.57, x.731, x.449, x.726, x.727, x.728, x.729].

>   model_cv
Model Details:
==============

H2ORegressionModel: deeplearning
Model ID:  DeepLearning_model_R_1556977766669_6 
Status of Neuron Layers: predicting y, regression, gaussian distribution, Quadratic loss, 426,003 weights/biases, 5.0 MB, 640,914 training samples, mini-batch size 1
  layer units             type dropout       l1       l2 mean_rate rate_rms momentum mean_weight weight_rms mean_bias bias_rms
1     1   659            Input 20.00 %       NA       NA        NA       NA       NA          NA         NA        NA       NA
2     2   400 RectifierDropout 50.00 % 0.000010 0.000000  0.100174 0.195964 0.000000    0.009572   0.052189  0.287158 0.102086
3     3   200 RectifierDropout 50.00 % 0.000010 0.000000  0.010017 0.014022 0.000000   -0.013692   0.068543  0.989972 0.060553
4     4     2 RectifierDropout 50.00 % 0.000010 0.000000  0.001219 0.000811 0.000000    0.021628   0.123249  1.747016 0.023651
5     5   200 RectifierDropout 50.00 % 0.000010 0.000000  0.004834 0.002778 0.000000   -0.116279   0.121237  0.857649 0.158484
6     6   400 RectifierDropout 50.00 % 0.000010 0.000000  0.049192 0.040026 0.000000   -0.023362   0.069099  0.899582 0.065283
7     7     1           Linear      NA 0.000010 0.000000  0.001488 0.000682 0.000000   -0.004557   0.027621  0.071537 0.000000


H2ORegressionMetrics: deeplearning
** Reported on training data. **
** Metrics reported on full training frame **

MSE:  1.984534
RMSE:  1.408735
MAE:  1.230678
RMSLE:  0.3468884
Mean Residual Deviance :  1.984534


 여러 가지 방법으로 모델을 만들고 비교할 수 있지만, autoML 같은 방법을 쓸 경우 데이터의 양이 많고 신경망의 갯수가 많을 수밖에 없어 상당한 시간이 필요하게 됩니다. 아무튼 H2O를 통해 간단한 딥러닝 모델을 구현해 봤습니다. 


 참고로 1000/100/1000 으로 모델을 만들어 보니 생각보다 좋은 결과가 나왔습니다. 시간도 아주 길지 않아서 괜찮은 듯 합니다. 다음에 계속해 보겠습니다. 


> model_cv <- h2o.deeplearning="" x="1:784,</span">
+                                y = 785,
+                                training_frame = train,
+                                activation = "RectifierWithDropout",
+                                hidden =  c(1000,100,1000),
+                                input_dropout_ratio = 0.2,
+                                l1 = 1e-5,
+                                epochs = 600)
  |============================================================================================================================================================| 100%


>   model_cv
Model Details:
==============

H2ORegressionModel: deeplearning
Model ID:  DeepLearning_model_R_1557063486636_5 
Status of Neuron Layers: predicting y, regression, gaussian distribution, Quadratic loss, 862,101 weights/biases, 10.0 MB, 1,001,489 training samples, mini-batch size 1
  layer units             type dropout       l1       l2 mean_rate rate_rms momentum mean_weight weight_rms mean_bias bias_rms
1     1   659            Input 20.00 %       NA       NA        NA       NA       NA          NA         NA        NA       NA
2     2  1000 RectifierDropout 50.00 % 0.000010 0.000000  0.177852 0.258550 0.000000    0.005795   0.036106  0.138419 0.094516
3     3   100 RectifierDropout 50.00 % 0.000010 0.000000  0.006789 0.007701 0.000000   -0.010645   0.049678  0.909954 0.070663
4     4  1000 RectifierDropout 50.00 % 0.000010 0.000000  0.033034 0.025869 0.000000   -0.028907   0.050627  0.211962 0.141360
5     5     1           Linear      NA 0.000010 0.000000  0.004257 0.001843 0.000000    0.006635   0.029327 -0.483303 0.000000


H2ORegressionMetrics: deeplearning
** Reported on training data. **
** Metrics reported on full training frame **

MSE:  0.07880728
RMSE:  0.2807264
MAE:  0.1910654
RMSLE:  0.08748502


Mean Residual Deviance :  0.07880728

댓글

이 블로그의 인기 게시물

통계 공부는 어떻게 하는 것이 좋을까?

 사실 저도 통계 전문가가 아니기 때문에 이런 주제로 글을 쓰기가 다소 애매하지만, 그래도 누군가에게 도움이 될 수 있다고 생각해서 글을 올려봅니다. 통계학, 특히 수학적인 의미에서의 통계학을 공부하게 되는 계기는 사람마다 다르긴 하겠지만, 아마도 비교적 흔하고 난감한 경우는 논문을 써야 하는 경우일 것입니다. 오늘날의 학문적 연구는 집단간 혹은 방법간의 차이가 있다는 것을 객관적으로 보여줘야 하는데, 그려면 불가피하게 통계적인 방법을 쓸 수 밖에 없게 됩니다. 이런 이유로 분야와 주제에 따라서는 아닌 경우도 있겠지만, 상당수 논문에서는 통계학이 들어가게 됩니다.   문제는 데이터를 처리하고 분석하는 방법을 익히는 데도 상당한 시간과 노력이 필요하다는 점입니다. 물론 대부분의 학과에서 통계 수업이 들어가기는 하지만, 그것만으로는 충분하지 않은 경우가 많습니다. 대학 학부 과정에서는 대부분 논문 제출이 필요없거나 필요하다고 해도 그렇게 높은 수준을 요구하지 않지만, 대학원 이상 과정에서는 SCI/SCIE 급 논문이 필요하게 되어 처음 논문을 작성하는 입장에서는 상당히 부담되는 상황에 놓이게 됩니다.  그리고 이후 논문을 계속해서 쓰게 될 경우 통계 문제는 항상 나를 따라다니면서 괴롭히게 될 것입니다.  사정이 이렇다보니 간혹 통계 공부를 어떻게 하는 것이 좋겠냐는 질문이 들어옵니다. 사실 저는 통계 전문가라고 하기에는 실력은 모자라지만, 대신 앞서서 삽질을 한 경험이 있기 때문에 몇 가지 조언을 해줄 수 있을 것 같습니다.  1. 입문자를 위한 책을 추천해달라  사실 예습을 위해서 미리 공부하는 것은 추천하지 않습니다. 기본적인 통계는 학과별로 다르지 않더라도 주로 쓰는 분석방법은 분야별로 상당한 차이가 있을 수 있어 결국은 자신이 주로 하는 부분을 잘 해야 하기 때문입니다. 그러기 위해서는 학과 커리큘럼에 들어있는 통계 수업을 듣는 것이 더 유리합니다. 잘 쓰지도 않을 방법을 열심히 공부하는 것은 아무래도 효율

R 스튜디오 설치 및 업데이트

 R을 설치한 후 기본으로 제공되는 R 콘솔창에서 코드를 입력해 작업을 수행할 수도 있지만, 보통은 그렇게 하기 보다는 가장 널리 사용되는 R 개발환경인 R 스튜디오가 널리 사용됩니다. 오픈 소스 무료 버전의 R 스튜디오는 누구나 설치가 가능하며 편리한 작업 환경을 제공하기 때문에 R을 위한 IDE에서 가장 널리 사용되어 있습니다. 아래 링크에서 다운로드 받습니다.    https://www.rstudio.com/  다운로드 R 이나 혹은 Powerful IDE for R로 들어가 일반 사용자 버전을 받습니다. 오픈 소스 버전과 상업용 버전, 그리고 데스크탑 버전과 서버 버전이 있는데, 일반적으로는 오픈 소스 버전에 데스크탑 버전을 다운로드 받습니다. 상업 버전의 경우 데스크탑 버전의 경우 년간 995달러, 서버 버전은 9995달러를 받고 여러 가지 기술 지원 및 자문을 해주는 기능이 있습니다.   데스크탑 버전을 설치하는 과정은 매우 쉽기 때문에 별도의 설명이 필요하지 않을 것 같습니다. 인스톨은 윈도우, 맥, 리눅스 (우분투/페도라)에 따라 설치 파일이 나뉘지만 설치가 어렵지는 않을 것입니다. 한 가지 주의할 점이라면 R은 사전에 반드시 따로 설치해야 한다는 점입니다. R 스튜디오만 단독 설치하면 아무것도 할 수 없습니다. 뭐 당연한 이야기죠.   설치된 R 스튜디오는 자동으로 업데이틀 체크하지 않습니다. 따라서 업데이트를 위해서는 R 스튜디오에서 Help 로 들어가 업데이트를 확인해야 합니다.     만약 업데이트 할 내용이 없다면 최신 버전이라고 알려줄 것이고 업데이트가 있다면 업데이트를 진행할 수 있도록 도와주게 됩니다. R의 업데이트와 R 스튜디오의 업데이트는 모두 개별적이며 앞서 설명했듯이 R 업데이트는 사실 기존 버전과 병행해서 새로운 버전을 새롭게 설치하는 것입니다. R 스튜디오는 실제로 업데이트가 이뤄지기 때문에 구버전을 지워줄 필요는

R 패키지 설치 및 업데이트 오류 (1)

 R 패키지를 설치하거나 업데이트 하다보면 여러 가지 문제가 생기는 경우들이 있습니다. 이 경우 아예 R을 재설치하는 것도 방법이지만, 어떤 경우에는 이렇게해도 해결이 안되고 계속해서 사용자는 괴롭히는 경우도 있습니다. 이런 경우 중 하나를 소개합니다.  새로운 패키지를 설치, 혹은 업데이트 하는 과정에서 같이 설치하는 패키지 중 하나가 설치가 되지 않는다는 메세지가 계속 나왔는데, 사실은 백신 프로그램 때문이었던 경우입니다.   dplyr 패키지를 업데이트 하려고 했는데, 제대로 되지 않아 다시 설치를 진행했습니다. 그런데 일부 패키지가 제대로 설치되지 않는다는 메세지가 나왔습니다.  > install.packages("dplyr") Error in install.packages : Updating loaded packages > install.packages("dplyr") Installing package into ‘C:/Users/jjy05_000/Documents/R/win-library/3.4’ (as ‘lib’ is unspecified) also installing the dependencies ‘bindr’, ‘bindrcpp’, ‘Rcpp’, ‘rlang’, ‘plogr’ trying URL ' https://cran.rstudio.com/bin/windows/contrib/3.4/bindr_0.1.1.zip ' Content type 'application/zip' length 15285 bytes (14 KB) downloaded 14 KB trying URL ' https://cran.rstudio.com/bin/windows/contrib/3.4/bindrcpp_0.2.2.zip ' Content type 'application/zip' length 620344 b