기본 콘텐츠로 건너뛰기

R을 이용한 딥러닝 (2)



 앞서 포스트에서 데이터를 잘 만들었다면 이를 저장한 후 다시 불러들이면 되겠지만, 혹시 잘 안되시는 경우를 위해 파일을 별도로 올렸습니다. 압축을 풀면 MNIST_train1.csv, MNIST_test1.csv 두 개의 파일이 나오는데 각각 데이터 갯수를 6000개와 1000개로 줄인 것으로 학습 능력은 그만큼 떨어지는 대신 시간은 훨씬 짧게 걸립니다. 만약 전체 6만개와 1만개 파일을 이용해서 실습을 하는 경우 한 번 돌리는데 몇 시간이 필요한 경우가 생겨 실제로는 예제를 연습하기가 쉽지 않습니다. 그래서 파일을 10% 정도로 줄인 것입니다. 


 일단 파일이 준비되면 H2O 라이브러리를 불러들이고 local H2O를 시작합니다. 자원 할당은 시스템 사양에 따라 달라지겠지만, 저는 컴퓨터 논리 CPU의 절반인 8개를 할당했습니다. 각자 사양에 맞춰 진행하면 될 것 같습니다. 


library(h2o)

localH2O = h2o.init(ip = "localhost", port = 54321, startH2O = TRUE,min_mem_size = "10G",nthreads = 8)

trainfile = "H:/data/deeplearning/MNIST_train1.csv"
train = h2o.importFile(path = trainfile,sep=",")

testfile = "H:/data/deeplearning/MNIST_test1.csv"
test = h2o.importFile(path = testfile,sep=",")


 이제 실제 학습을 진행해 보겠습니다. 


# To see a brief summary of the data, run the following command
summary(train)
summary(test)

y <- span="">
x <- names="" setdiff="" span="" train="" y="">

# We encode the response column as categorical for multinomial
#classification
train[,y] <- as.factor="" span="" train="" y="">
test[,y] <- as.factor="" span="" test="" y="">

# Train a Deep Learning model and valid

  model_cv <- h2o.deeplearning="" x="1:784,</span">
                               y = 785,
                               training_frame = train,
                               activation = "RectifierWithDropout",
                               hidden =  c(800,200,800),
                               input_dropout_ratio = 0.2,
                               l1 = 1e-5,
                               epochs = 200)

  model_cv


 여기서 뉴런은 800/200/800개로 된 딥러닝 모델을 만들었는데, 훈련 자료만 입력해서 일단 학습을 시켜봤습니다. epochs는 몇 회 학습을 할 것인지를 결정하는 옵션으로 hidden의 신경망과 더불어 학습 시간을 좌우하는 중요 옵션이니 잘 활용할 필요가 있습니다. 비슷한 결과라면 당연히 시간이 짧은 편이 유리합니다. 제대로 진행됐다면 아래와 비슷한 결과물이 출력될 것입니다. 





> # Train a Deep Learning model and valid
>   model_cv <- h2o.deeplearning="" x="1:784,</p">
+                                y = 785,
+                                training_frame = train,
+                                activation = "RectifierWithDropout",
+                                hidden =  c(800,200,800),
+                                input_dropout_ratio = 0.2,
+                                l1 = 1e-5,
+                                epochs = 200)
  |===========================================================================================================================================================| 100%
Warning message:
In .h2o.startModelJob(algo, params, h2oRestApiVersion) :
  Dropping bad and constant columns: [x.88, x.87, x.86, x.85, x.84, x.83, x.82, x.760, x.365, x.761, x.762, x.116, x.754, x.755, x.756, x.757, x.758, x.759, x.197, x.110, x.111, x.112, x.113, x.114, x.477, x.115, x.753, x.589, x.505, x.1, x.3, x.2, x.5, x.4, x.7, x.23, x.6, x.22, x.21, x.20, x.141, x.142, x.780, x.29, x.143, x.781, x.28, x.782, x.27, x.783, x.26, x.421, x.784, x.25, x.24, x.776, x.777, x.778, x.779, x.19, x.18, x.253, x.770, x.17, x.771, x.16, x.772, x.15, x.773, x.14, x.774, x.13, x.533, x.775, x.644, x.645, x.646, x.769, x.44, x.281, x.561, x.49, x.169, x.34, x.33, x.32, x.31, x.30, x.393, x.672, x.673, x.674, x.35, x.700, x.701, x.702, x.703, x.309, x.61, x.60, x.225, x.699, x.732, x.337, x.733, x.616, x.617, x.618, x.56, x.55, x.54, x.53, x.52, x.51, x.50, x.59, x.58, x.730, x.57, x.731, x.449, x.726, x.727, x.728, x.729].

>   model_cv
Model Details:
==============

H2ORegressionModel: deeplearning
Model ID:  DeepLearning_model_R_1556977766669_1 
Status of Neuron Layers: predicting y, regression, gaussian distribution, Quadratic loss, 849,801 weights/biases, 9.8 MB, 603,562 training samples, mini-batch size 1
  layer units             type dropout       l1       l2 mean_rate rate_rms momentum mean_weight weight_rms mean_bias bias_rms
1     1   659            Input 20.00 %       NA       NA        NA       NA       NA          NA         NA        NA       NA
2     2   800 RectifierDropout 50.00 % 0.000010 0.000000  0.171791 0.260461 0.000000    0.005984   0.040483  0.213295 0.083011
3     3   200 RectifierDropout 50.00 % 0.000010 0.000000  0.010684 0.010028 0.000000   -0.010907   0.049532  0.918480 0.064619
4     4   800 RectifierDropout 50.00 % 0.000010 0.000000  0.043320 0.028553 0.000000   -0.019463   0.049687  0.373009 0.177849
5     5     1           Linear      NA 0.000010 0.000000  0.002385 0.000937 0.000000    0.000776   0.024837 -0.164671 0.000000


H2ORegressionMetrics: deeplearning
** Reported on training data. **
** Metrics reported on full training frame **

MSE:  0.2040526
RMSE:  0.4517218
MAE:  0.3310534
RMSLE:  0.0947054
Mean Residual Deviance :  0.2040526


 
 이 경우 모델에 대해서 주는 정보가 앞서 봤던 지표인 MSE. RMSE 이외에 MAE (mean absolute error)와 RMSLE (root mean squared log error)가 있는데 당연히 이것이 작을 수록 에러가 적다는 의미이기 때문에 더 좋은 모델이 됩니다. 참고로 위의 수치는 시드값을 주지 않는 이상 할 때마다 조금씩 달라질 수 있다는 점을 알아야 합니다. DNN 역시 우리와 마찬가지로 공부할 때마다 조금씩 다른 결과를 보여줄 수 있습니다. 비록 거의 비슷하긴 하지만 말이죠. 여기서 뉴런을 더 딥하게 만들어 4개의 층을 만들어 보겠습니다. 


 참고로 웹브라우저 상에서도 http://localhost:54321로 결과를 볼 수 있습니다. getmodel로 들어가 모델들을 확인할 수 있습니다. 






> model_cv <- h2o.deeplearning="" x="1:784,</p">
+                                y = 785,
+                                training_frame = train,
+                                activation = "RectifierWithDropout",
+                                hidden =  c(800,200,200,800),
+                                input_dropout_ratio = 0.2,
+                                l1 = 1e-5,
+                                epochs = 200)
  |===========================================================================================================================================================| 100%
Warning message:
In .h2o.startModelJob(algo, params, h2oRestApiVersion) :
  Dropping bad and constant columns: [x.88, x.87, x.86, x.85, x.84, x.83, x.82, x.760, x.365, x.761, x.762, x.116, x.754, x.755, x.756, x.757, x.758, x.759, x.197, x.110, x.111, x.112, x.113, x.114, x.477, x.115, x.753, x.589, x.505, x.1, x.3, x.2, x.5, x.4, x.7, x.23, x.6, x.22, x.21, x.20, x.141, x.142, x.780, x.29, x.143, x.781, x.28, x.782, x.27, x.783, x.26, x.421, x.784, x.25, x.24, x.776, x.777, x.778, x.779, x.19, x.18, x.253, x.770, x.17, x.771, x.16, x.772, x.15, x.773, x.14, x.774, x.13, x.533, x.775, x.644, x.645, x.646, x.769, x.44, x.281, x.561, x.49, x.169, x.34, x.33, x.32, x.31, x.30, x.393, x.672, x.673, x.674, x.35, x.700, x.701, x.702, x.703, x.309, x.61, x.60, x.225, x.699, x.732, x.337, x.733, x.616, x.617, x.618, x.56, x.55, x.54, x.53, x.52, x.51, x.50, x.59, x.58, x.730, x.57, x.731, x.449, x.726, x.727, x.728, x.729].

>   model_cv
Model Details:
==============

H2ORegressionModel: deeplearning
Model ID:  DeepLearning_model_R_1556977766669_2 
Status of Neuron Layers: predicting y, regression, gaussian distribution, Quadratic loss, 890,001 weights/biases, 10.3 MB, 601,758 training samples, mini-batch size 1
  layer units             type dropout       l1       l2 mean_rate rate_rms momentum mean_weight weight_rms mean_bias bias_rms
1     1   659            Input 20.00 %       NA       NA        NA       NA       NA          NA         NA        NA       NA
2     2   800 RectifierDropout 50.00 % 0.000010 0.000000  0.144651 0.231371 0.000000    0.006540   0.039000  0.307433 0.061740
3     3   200 RectifierDropout 50.00 % 0.000010 0.000000  0.008937 0.007291 0.000000   -0.008280   0.049811  0.952130 0.041575
4     4   200 RectifierDropout 50.00 % 0.000010 0.000000  0.015841 0.013679 0.000000   -0.018627   0.072190  0.737129 0.079147
5     5   800 RectifierDropout 50.00 % 0.000010 0.000000  0.069895 0.045053 0.000000   -0.022287   0.048712  0.720120 0.096289
6     6     1           Linear      NA 0.000010 0.000000  0.001392 0.000391 0.000000   -0.002196   0.015756  0.215260 0.000000


H2ORegressionMetrics: deeplearning
** Reported on training data. **
** Metrics reported on full training frame **

MSE:  0.2291781
RMSE:  0.4787255
MAE:  0.3190679
RMSLE:  0.1753631
Mean Residual Deviance :  0.2291781


 
 MSE/RMSE/MAE/RMSLE를 보면 오히려 약간 늘어났다는 사실을 알 수 있습니다. 더 깊은 모델이 더 좋은 결과를 보여주지 않은 것이죠. 더 얕은 모델은 어떨까요? 


> model_cv <- h2o.deeplearning="" x="1:784,</p">
+                                y = 785,
+                                training_frame = train,
+                                activation = "RectifierWithDropout",
+                                hidden =  c(800,800),
+                                input_dropout_ratio = 0.2,
+                                l1 = 1e-5,
+                                epochs = 200)
  |===========================================================================================================================================================| 100%
Warning message:
In .h2o.startModelJob(algo, params, h2oRestApiVersion) :
  Dropping bad and constant columns: [x.88, x.87, x.86, x.85, x.84, x.83, x.82, x.760, x.365, x.761, x.762, x.116, x.754, x.755, x.756, x.757, x.758, x.759, x.197, x.110, x.111, x.112, x.113, x.114, x.477, x.115, x.753, x.589, x.505, x.1, x.3, x.2, x.5, x.4, x.7, x.23, x.6, x.22, x.21, x.20, x.141, x.142, x.780, x.29, x.143, x.781, x.28, x.782, x.27, x.783, x.26, x.421, x.784, x.25, x.24, x.776, x.777, x.778, x.779, x.19, x.18, x.253, x.770, x.17, x.771, x.16, x.772, x.15, x.773, x.14, x.774, x.13, x.533, x.775, x.644, x.645, x.646, x.769, x.44, x.281, x.561, x.49, x.169, x.34, x.33, x.32, x.31, x.30, x.393, x.672, x.673, x.674, x.35, x.700, x.701, x.702, x.703, x.309, x.61, x.60, x.225, x.699, x.732, x.337, x.733, x.616, x.617, x.618, x.56, x.55, x.54, x.53, x.52, x.51, x.50, x.59, x.58, x.730, x.57, x.731, x.449, x.726, x.727, x.728, x.729].

>   model_cv
Model Details:
==============

H2ORegressionModel: deeplearning
Model ID:  DeepLearning_model_R_1556977766669_3 
Status of Neuron Layers: predicting y, regression, gaussian distribution, Quadratic loss, 1,169,601 weights/biases, 13.5 MB, 768,000 training samples, mini-batch size 1
  layer units             type dropout       l1       l2 mean_rate rate_rms momentum mean_weight weight_rms mean_bias bias_rms
1     1   659            Input 20.00 %       NA       NA        NA       NA       NA          NA         NA        NA       NA
2     2   800 RectifierDropout 50.00 % 0.000010 0.000000  0.166924 0.257318 0.000000    0.006099   0.043079  0.036390 0.085338
3     3   800 RectifierDropout 50.00 % 0.000010 0.000000  0.029768 0.020146 0.000000   -0.010178   0.041947  0.977375 0.076209
4     4     1           Linear      NA 0.000010 0.000000  0.000833 0.000401 0.000000   -0.000158   0.023762  0.112036 0.000000


H2ORegressionMetrics: deeplearning
** Reported on training data. **
** Metrics reported on full training frame **

MSE:  0.206431
RMSE:  0.4543467
MAE:  0.315353
RMSLE:  NaN
Mean Residual Deviance :  0.206431


 생각보다 큰 차이가 있지는 않습니다. 여기서 epoch를 늘려보면 어떨까요?  


> model_cv <- h2o.deeplearning="" x="1:784,</p">
+                                y = 785,
+                                training_frame = train,
+                                activation = "RectifierWithDropout",
+                                hidden =  c(800,800),
+                                input_dropout_ratio = 0.2,
+                                l1 = 1e-5,
+                                epochs = 300)
  |===========================================================================================================================================================| 100%
Warning message:
In .h2o.startModelJob(algo, params, h2oRestApiVersion) :
  Dropping bad and constant columns: [x.88, x.87, x.86, x.85, x.84, x.83, x.82, x.760, x.365, x.761, x.762, x.116, x.754, x.755, x.756, x.757, x.758, x.759, x.197, x.110, x.111, x.112, x.113, x.114, x.477, x.115, x.753, x.589, x.505, x.1, x.3, x.2, x.5, x.4, x.7, x.23, x.6, x.22, x.21, x.20, x.141, x.142, x.780, x.29, x.143, x.781, x.28, x.782, x.27, x.783, x.26, x.421, x.784, x.25, x.24, x.776, x.777, x.778, x.779, x.19, x.18, x.253, x.770, x.17, x.771, x.16, x.772, x.15, x.773, x.14, x.774, x.13, x.533, x.775, x.644, x.645, x.646, x.769, x.44, x.281, x.561, x.49, x.169, x.34, x.33, x.32, x.31, x.30, x.393, x.672, x.673, x.674, x.35, x.700, x.701, x.702, x.703, x.309, x.61, x.60, x.225, x.699, x.732, x.337, x.733, x.616, x.617, x.618, x.56, x.55, x.54, x.53, x.52, x.51, x.50, x.59, x.58, x.730, x.57, x.731, x.449, x.726, x.727, x.728, x.729].

>   model_cv
Model Details:
==============

H2ORegressionModel: deeplearning
Model ID:  DeepLearning_model_R_1556977766669_4 
Status of Neuron Layers: predicting y, regression, gaussian distribution, Quadratic loss, 1,169,601 weights/biases, 13.5 MB, 1,072,201 training samples, mini-batch size 1
  layer units             type dropout       l1       l2 mean_rate rate_rms momentum mean_weight weight_rms mean_bias bias_rms
1     1   659            Input 20.00 %       NA       NA        NA       NA       NA          NA         NA        NA       NA
2     2   800 RectifierDropout 50.00 % 0.000010 0.000000  0.183996 0.275787 0.000000    0.005372   0.042287 -0.121058 0.098303
3     3   800 RectifierDropout 50.00 % 0.000010 0.000000  0.033856 0.020338 0.000000   -0.011571   0.044719  0.998392 0.103063
4     4     1           Linear      NA 0.000010 0.000000  0.000928 0.000425 0.000000    0.000717   0.024313  0.107939 0.000000


H2ORegressionMetrics: deeplearning
** Reported on training data. **
** Metrics reported on full training frame **

MSE:  0.3171086
RMSE:  0.5631239
MAE:  0.4387138
RMSLE:  NaN
Mean Residual Deviance :  0.3171086

 

 되려 별로 결과가 좋지 않습니다. 이번에는 오토인코더와 비슷한 모델을 사용해보겠습니다. 기본적인 아이디어는 모래 시계처럼 중간이 잘록한 형태의 신경망을 만들어 입력 신호를 다시 복원하는 것입니다. 여기서는 400/200/2/200/400의 신경망을 만들어 보겠습니다. 

# autoencoder


> model_cv <- h2o.deeplearning="" x="1:784,</p">
+                                y = 785,
+                                training_frame = train,
+                                activation = "RectifierWithDropout",
+                                hidden =  c(400, 200, 2, 200, 400),
+                                input_dropout_ratio = 0.2,
+                                l1 = 1e-5,
+                                epochs = 200)
  |===========================================================================================================================================================| 100%
Warning message:
In .h2o.startModelJob(algo, params, h2oRestApiVersion) :
  Dropping bad and constant columns: [x.88, x.87, x.86, x.85, x.84, x.83, x.82, x.760, x.365, x.761, x.762, x.116, x.754, x.755, x.756, x.757, x.758, x.759, x.197, x.110, x.111, x.112, x.113, x.114, x.477, x.115, x.753, x.589, x.505, x.1, x.3, x.2, x.5, x.4, x.7, x.23, x.6, x.22, x.21, x.20, x.141, x.142, x.780, x.29, x.143, x.781, x.28, x.782, x.27, x.783, x.26, x.421, x.784, x.25, x.24, x.776, x.777, x.778, x.779, x.19, x.18, x.253, x.770, x.17, x.771, x.16, x.772, x.15, x.773, x.14, x.774, x.13, x.533, x.775, x.644, x.645, x.646, x.769, x.44, x.281, x.561, x.49, x.169, x.34, x.33, x.32, x.31, x.30, x.393, x.672, x.673, x.674, x.35, x.700, x.701, x.702, x.703, x.309, x.61, x.60, x.225, x.699, x.732, x.337, x.733, x.616, x.617, x.618, x.56, x.55, x.54, x.53, x.52, x.51, x.50, x.59, x.58, x.730, x.57, x.731, x.449, x.726, x.727, x.728, x.729].

>   model_cv
Model Details:
==============

H2ORegressionModel: deeplearning
Model ID:  DeepLearning_model_R_1556977766669_5 
Status of Neuron Layers: predicting y, regression, gaussian distribution, Quadratic loss, 426,003 weights/biases, 5.0 MB, 1,080,000 training samples, mini-batch size 1
  layer units             type dropout       l1       l2 mean_rate rate_rms momentum mean_weight weight_rms mean_bias bias_rms
1     1   659            Input 20.00 %       NA       NA        NA       NA       NA          NA         NA        NA       NA
2     2   400 RectifierDropout 50.00 % 0.000010 0.000000  0.117370 0.212231 0.000000    0.010417   0.054571  0.119259 0.110808
3     3   200 RectifierDropout 50.00 % 0.000010 0.000000  0.009224 0.009703 0.000000   -0.018213   0.067514  1.006075 0.091013
4     4     2 RectifierDropout 50.00 % 0.000010 0.000000  0.001595 0.001157 0.000000    0.017373   0.141770  1.912306 0.232235
5     5   200 RectifierDropout 50.00 % 0.000010 0.000000  0.041396 0.188829 0.000000   -0.145912   0.147096  0.834432 0.844081
6     6   400 RectifierDropout 50.00 % 0.000010 0.000000  0.080982 0.110674 0.000000   -0.029381   0.073252  0.869751 0.098928
7     7     1           Linear      NA 0.000010 0.000000  0.002397 0.001085 0.000000    0.005996   0.029974 -0.073048 0.000000


H2ORegressionMetrics: deeplearning
** Reported on training data. **
** Metrics reported on full training frame **

MSE:  2.45604
RMSE:  1.567176
MAE:  1.434909
RMSLE:  0.475296
Mean Residual Deviance :  2.45604


 되려 훨씬 좋지 않은 결과가 나왔습니다. epoch를 600으로 늘리면 이것보다는 좋지만 그래도 여전히 좋지 않은 결과가 나옵니다.  


> model_cv <- h2o.deeplearning="" x="1:784,</p">
+                                y = 785,
+                                training_frame = train,
+                                activation = "RectifierWithDropout",
+                                hidden =  c(400, 200, 2, 200, 400),
+                                input_dropout_ratio = 0.2,
+                                l1 = 1e-5,
+                                epochs = 600)
  |===========================================================================================================================================================| 100%
Warning message:
In .h2o.startModelJob(algo, params, h2oRestApiVersion) :
  Dropping bad and constant columns: [x.88, x.87, x.86, x.85, x.84, x.83, x.82, x.760, x.365, x.761, x.762, x.116, x.754, x.755, x.756, x.757, x.758, x.759, x.197, x.110, x.111, x.112, x.113, x.114, x.477, x.115, x.753, x.589, x.505, x.1, x.3, x.2, x.5, x.4, x.7, x.23, x.6, x.22, x.21, x.20, x.141, x.142, x.780, x.29, x.143, x.781, x.28, x.782, x.27, x.783, x.26, x.421, x.784, x.25, x.24, x.776, x.777, x.778, x.779, x.19, x.18, x.253, x.770, x.17, x.771, x.16, x.772, x.15, x.773, x.14, x.774, x.13, x.533, x.775, x.644, x.645, x.646, x.769, x.44, x.281, x.561, x.49, x.169, x.34, x.33, x.32, x.31, x.30, x.393, x.672, x.673, x.674, x.35, x.700, x.701, x.702, x.703, x.309, x.61, x.60, x.225, x.699, x.732, x.337, x.733, x.616, x.617, x.618, x.56, x.55, x.54, x.53, x.52, x.51, x.50, x.59, x.58, x.730, x.57, x.731, x.449, x.726, x.727, x.728, x.729].

>   model_cv
Model Details:
==============

H2ORegressionModel: deeplearning
Model ID:  DeepLearning_model_R_1556977766669_6 
Status of Neuron Layers: predicting y, regression, gaussian distribution, Quadratic loss, 426,003 weights/biases, 5.0 MB, 640,914 training samples, mini-batch size 1
  layer units             type dropout       l1       l2 mean_rate rate_rms momentum mean_weight weight_rms mean_bias bias_rms
1     1   659            Input 20.00 %       NA       NA        NA       NA       NA          NA         NA        NA       NA
2     2   400 RectifierDropout 50.00 % 0.000010 0.000000  0.100174 0.195964 0.000000    0.009572   0.052189  0.287158 0.102086
3     3   200 RectifierDropout 50.00 % 0.000010 0.000000  0.010017 0.014022 0.000000   -0.013692   0.068543  0.989972 0.060553
4     4     2 RectifierDropout 50.00 % 0.000010 0.000000  0.001219 0.000811 0.000000    0.021628   0.123249  1.747016 0.023651
5     5   200 RectifierDropout 50.00 % 0.000010 0.000000  0.004834 0.002778 0.000000   -0.116279   0.121237  0.857649 0.158484
6     6   400 RectifierDropout 50.00 % 0.000010 0.000000  0.049192 0.040026 0.000000   -0.023362   0.069099  0.899582 0.065283
7     7     1           Linear      NA 0.000010 0.000000  0.001488 0.000682 0.000000   -0.004557   0.027621  0.071537 0.000000


H2ORegressionMetrics: deeplearning
** Reported on training data. **
** Metrics reported on full training frame **

MSE:  1.984534
RMSE:  1.408735
MAE:  1.230678
RMSLE:  0.3468884
Mean Residual Deviance :  1.984534


 여러 가지 방법으로 모델을 만들고 비교할 수 있지만, autoML 같은 방법을 쓸 경우 데이터의 양이 많고 신경망의 갯수가 많을 수밖에 없어 상당한 시간이 필요하게 됩니다. 아무튼 H2O를 통해 간단한 딥러닝 모델을 구현해 봤습니다. 


 참고로 1000/100/1000 으로 모델을 만들어 보니 생각보다 좋은 결과가 나왔습니다. 시간도 아주 길지 않아서 괜찮은 듯 합니다. 다음에 계속해 보겠습니다. 


> model_cv <- h2o.deeplearning="" x="1:784,</span">
+                                y = 785,
+                                training_frame = train,
+                                activation = "RectifierWithDropout",
+                                hidden =  c(1000,100,1000),
+                                input_dropout_ratio = 0.2,
+                                l1 = 1e-5,
+                                epochs = 600)
  |============================================================================================================================================================| 100%


>   model_cv
Model Details:
==============

H2ORegressionModel: deeplearning
Model ID:  DeepLearning_model_R_1557063486636_5 
Status of Neuron Layers: predicting y, regression, gaussian distribution, Quadratic loss, 862,101 weights/biases, 10.0 MB, 1,001,489 training samples, mini-batch size 1
  layer units             type dropout       l1       l2 mean_rate rate_rms momentum mean_weight weight_rms mean_bias bias_rms
1     1   659            Input 20.00 %       NA       NA        NA       NA       NA          NA         NA        NA       NA
2     2  1000 RectifierDropout 50.00 % 0.000010 0.000000  0.177852 0.258550 0.000000    0.005795   0.036106  0.138419 0.094516
3     3   100 RectifierDropout 50.00 % 0.000010 0.000000  0.006789 0.007701 0.000000   -0.010645   0.049678  0.909954 0.070663
4     4  1000 RectifierDropout 50.00 % 0.000010 0.000000  0.033034 0.025869 0.000000   -0.028907   0.050627  0.211962 0.141360
5     5     1           Linear      NA 0.000010 0.000000  0.004257 0.001843 0.000000    0.006635   0.029327 -0.483303 0.000000


H2ORegressionMetrics: deeplearning
** Reported on training data. **
** Metrics reported on full training frame **

MSE:  0.07880728
RMSE:  0.2807264
MAE:  0.1910654
RMSLE:  0.08748502


Mean Residual Deviance :  0.07880728

댓글

이 블로그의 인기 게시물

세상에서 가장 큰 벌

( Wallace's giant bee, the largest known bee species in the world, is four times larger than a European honeybee(Credit: Clay Bolt) ) (Photographer Clay Bolt snaps some of the first-ever shots of Wallace's giant bee in the wild(Credit: Simon Robson)  월리스의 거대 벌 (Wallace’s giant bee)로 알려진 Megachile pluto는 매우 거대한 인도네시아 벌로 세상에서 가장 거대한 말벌과도 경쟁할 수 있는 크기를 지니고 있습니다. 암컷의 경우 몸길이 3.8cm, 날개너비 6.35cm으로 알려진 벌 가운데 가장 거대하지만 수컷의 경우 이보다 작아서 몸길이가 2.3cm 정도입니다. 아무튼 일반 꿀벌의 4배가 넘는 몸길이를 지닌 거대 벌이라고 할 수 있습니다.   메가칠레는 1981년 몇 개의 표본이 발견된 이후 지금까지 추가 발견이 되지 않아 멸종되었다고 보는 과학자들도 있었습니다. 2018년에 eBay에 표본이 나왔지만, 언제 잡힌 것인지는 알 수 없었습니다. 사실 이 벌은 1858년 처음 발견된 이후 1981년에야 다시 발견되었을 만큼 찾기 어려운 희귀종입니다. 그런데 시드니 대학과 국제 야생 동물 보호 협회 (Global Wildlife Conservation)의 연구팀이 오랜 수색 끝에 2019년 인도네시아의 오지에서 메가칠레 암컷을 야생 상태에서 발견하는데 성공했습니다.   메가칠레 암컷은 특이하게도 살아있는 흰개미 둥지가 있는 나무에 둥지를 만들고 살아갑니다. 이들의 거대한 턱은 나무의 수지를 모아 둥지를 짓는데 유리합니다. 하지만 워낙 희귀종이라 이들의 생태에 대해서는 거의 알려진 바가 없습니다.  (동영상)...

몸에 철이 많으면 조기 사망 위험도가 높다?

 철분은 인체에 반드시 필요한 미량 원소입니다. 헤모글로빈에 필수적인 물질이기 때문에 철분 부족은 흔히 빈혈을 부르며 반대로 피를 자꾸 잃는 경우에는 철분 부족 현상이 발생합니다. 하지만 철분 수치가 높다는 것은 반드시 좋은 의미는 아닙니다. 모든 일에는 적당한 수준이 있게 마련이고 철 역시 너무 많으면 여러 가지 질병을 일으킬 수 있습니다. 철 대사에 문제가 생겨 철이 과다하게 축적되는 혈색소증 ( haemochromatosis ) 같은 드문 경우가 아니라도 과도한 철분 섭취나 수혈로 인한 철분 과잉은 건강에 문제를 일으킬 수 있습니다. 하지만 높은 철 농도가 수명에 미치는 영향에 대해서는 잘 알려지지 않았습니다.   하버드 대학의 이야스 다글라스( Iyas Daghlas )와 임페리얼 칼리지 런던의 데펜더 길 ( Dipender Gill )은 체내 철 함유량에 영향을 미치는 유전적 변이와 수명의 관계를 조사했습니다. 연구팀은 48972명의 유전 정보와 혈중 철분 농도, 그리고 기대 수명의 60/90%에서 생존 확률을 조사했습니다. 그 결과 유전자로 예측한 혈중 철분 농도가 증가할수록 오래 생존할 가능성이 낮은 것으로 나타났습니다. 이것이 유전자 자체 때문인지 아니면 높은 혈중/체내 철 농도 때문인지는 명확하지 않지만, 높은 혈중 철 농도가 꼭 좋은 뜻이 아니라는 것을 시사하는 결과입니다.   연구팀은 이 데이터를 근거로 건강한 사람이 영양제나 종합 비타민제를 통해 과도한 철분을 섭취할 이유는 없다고 주장했습니다. 어쩌면 높은 철 농도가 조기 사망 위험도를 높일지도 모르기 때문입니다. 그러나 임산부나 빈혈 환자 등 진짜 철분이 필요한 사람들까지 철분 섭취를 꺼릴 필요가 없다는 점도 강조했습니다. 연구 내용은 정상보다 높은 혈중 철농도가 오래 유지되는 경우를 가정한 것으로 본래 철분 부족이 있는 사람을 대상으로 한 것이 아니기 때문입니다. 낮은 철분 농도와 빈혈이 건강에 미치는 악영향은 이미 잘 알려져 있기 때문에 철...

사막에서 식물을 재배하는 온실 Ecodome

 지구 기후가 변해가면서 일부 지역에서는 비가 더 많이 내리지만 반대로 비가 적게 내리는 지역도 생기고 있습니다. 일부 아프리카 개도국에서는 이에 더해서 인구 증가로 인해 식량과 물이 모두 크게 부족한 현상이 지속되고 있습니다. 이를 해결하기 위한 여러 가지 아이디어들이 나오고 있는데, 그 중 하나가 사막 온실입니다.   사막에 온실을 건설한다는 아이디어는 이상해 보이지만, 실제로는 다양한 사막 온실이 식물재배를 위해서 시도되고 있습니다. 사막 온실의 아이디어는 낮과 밤의 일교차가 큰 사막 환경에서 작물을 재배함과 동시에 물이 증발해서 사라지는 것을 막는데 그 중요한 이유가 있습니다.   사막화가 진행 중인 에티오피아의 곤다르 대학( University of Gondar's Faculty of Agriculture )의 연구자들은 사막 온실과 이슬을 모으는 장치를 결합한 독특한 사막 온실을 공개했습니다. 이들은 이를 에코돔( Ecodome )이라고 명명했는데, 아직 프로토타입을 건설한 것은 아니지만 그 컨셉을 공개하고 개발에 착수했다고 합니다.   원리는 간단합니다. 사막에 건설된 온실안에서 작물을 키움니다. 이 작물은 광합성을 하면서 수증기를 밖으로 내보네게 되지만, 온실 때문에 이 수증기를 달아나지 못하고 갖히게 됩니다. 밤이 되면 이 수증기는 다시 응결됩니다. 그리고 동시에 에코돔의 가장 위에 있는 부분이 열리면서 여기로 찬 공기가 들어와 외부 공기에 있는 수증기가 응결되어 에코돔 내부로 들어옵니다. 그렇게 얻은 물은 식수는 물론 식물 재배 모두에 사용 가능합니다.  (에코돔의 컨셉.  출처 : Roots Up)   (동영상)   이 컨셉은 마치 사막 온실과 이슬을 모으는 담수 장치를 합쳐놓은 것이라고 말할 수 있습니다. 물론 실제로도 잘 작동할지는 직접 테스트를 해봐야 알 수...