@@ -0,0 +1,123 @@ | |||||
input: "data" | |||||
input_dim: 1 | |||||
input_dim: 1 | |||||
input_dim: 30 | |||||
input_dim: 14 | |||||
layer { | |||||
name: "conv2d_1" | |||||
type: "Convolution" | |||||
bottom: "data" | |||||
top: "conv2d_1" | |||||
convolution_param { | |||||
num_output: 32 | |||||
bias_term: true | |||||
pad: 0 | |||||
kernel_size: 3 | |||||
stride: 1 | |||||
} | |||||
} | |||||
layer { | |||||
name: "activation_1" | |||||
type: "ReLU" | |||||
bottom: "conv2d_1" | |||||
top: "activation_1" | |||||
} | |||||
layer { | |||||
name: "max_pooling2d_1" | |||||
type: "Pooling" | |||||
bottom: "activation_1" | |||||
top: "max_pooling2d_1" | |||||
pooling_param { | |||||
pool: MAX | |||||
kernel_size: 2 | |||||
stride: 2 | |||||
pad: 0 | |||||
} | |||||
} | |||||
layer { | |||||
name: "conv2d_2" | |||||
type: "Convolution" | |||||
bottom: "max_pooling2d_1" | |||||
top: "conv2d_2" | |||||
convolution_param { | |||||
num_output: 64 | |||||
bias_term: true | |||||
pad: 0 | |||||
kernel_size: 3 | |||||
stride: 1 | |||||
} | |||||
} | |||||
layer { | |||||
name: "activation_2" | |||||
type: "ReLU" | |||||
bottom: "conv2d_2" | |||||
top: "activation_2" | |||||
} | |||||
layer { | |||||
name: "max_pooling2d_2" | |||||
type: "Pooling" | |||||
bottom: "activation_2" | |||||
top: "max_pooling2d_2" | |||||
pooling_param { | |||||
pool: MAX | |||||
kernel_size: 2 | |||||
stride: 2 | |||||
pad: 0 | |||||
} | |||||
} | |||||
layer { | |||||
name: "conv2d_3" | |||||
type: "Convolution" | |||||
bottom: "max_pooling2d_2" | |||||
top: "conv2d_3" | |||||
convolution_param { | |||||
num_output: 128 | |||||
bias_term: true | |||||
pad: 0 | |||||
kernel_size: 2 | |||||
stride: 1 | |||||
} | |||||
} | |||||
layer { | |||||
name: "activation_3" | |||||
type: "ReLU" | |||||
bottom: "conv2d_3" | |||||
top: "activation_3" | |||||
} | |||||
layer { | |||||
name: "flatten_1" | |||||
type: "Flatten" | |||||
bottom: "activation_3" | |||||
top: "flatten_1" | |||||
} | |||||
layer { | |||||
name: "dense_1" | |||||
type: "InnerProduct" | |||||
bottom: "flatten_1" | |||||
top: "dense_1" | |||||
inner_product_param { | |||||
num_output: 256 | |||||
} | |||||
} | |||||
layer { | |||||
name: "relu2" | |||||
type: "ReLU" | |||||
bottom: "dense_1" | |||||
top: "relu2" | |||||
} | |||||
layer { | |||||
name: "dense2" | |||||
type: "InnerProduct" | |||||
bottom: "relu2" | |||||
top: "dense2" | |||||
inner_product_param { | |||||
num_output: 65 | |||||
} | |||||
} | |||||
layer { | |||||
name: "prob" | |||||
type: "Softmax" | |||||
bottom: "dense2" | |||||
top: "prob" | |||||
} |
@@ -0,0 +1,95 @@ | |||||
input: "data" | |||||
input_dim: 1 | |||||
input_dim: 3 | |||||
input_dim: 16 | |||||
input_dim: 66 | |||||
layer { | |||||
name: "conv1" | |||||
type: "Convolution" | |||||
bottom: "data" | |||||
top: "conv1" | |||||
convolution_param { | |||||
num_output: 10 | |||||
bias_term: true | |||||
pad: 0 | |||||
kernel_size: 3 | |||||
stride: 1 | |||||
} | |||||
} | |||||
layer { | |||||
name: "relu1" | |||||
type: "ReLU" | |||||
bottom: "conv1" | |||||
top: "conv1" | |||||
} | |||||
layer { | |||||
name: "max_pooling2d_3" | |||||
type: "Pooling" | |||||
bottom: "conv1" | |||||
top: "max_pooling2d_3" | |||||
pooling_param { | |||||
pool: MAX | |||||
kernel_size: 2 | |||||
stride: 2 | |||||
pad: 0 | |||||
} | |||||
} | |||||
layer { | |||||
name: "conv2" | |||||
type: "Convolution" | |||||
bottom: "max_pooling2d_3" | |||||
top: "conv2" | |||||
convolution_param { | |||||
num_output: 16 | |||||
bias_term: true | |||||
pad: 0 | |||||
kernel_size: 3 | |||||
stride: 1 | |||||
} | |||||
} | |||||
layer { | |||||
name: "relu2" | |||||
type: "ReLU" | |||||
bottom: "conv2" | |||||
top: "conv2" | |||||
} | |||||
layer { | |||||
name: "conv3" | |||||
type: "Convolution" | |||||
bottom: "conv2" | |||||
top: "conv3" | |||||
convolution_param { | |||||
num_output: 32 | |||||
bias_term: true | |||||
pad: 0 | |||||
kernel_size: 3 | |||||
stride: 1 | |||||
} | |||||
} | |||||
layer { | |||||
name: "relu3" | |||||
type: "ReLU" | |||||
bottom: "conv3" | |||||
top: "conv3" | |||||
} | |||||
layer { | |||||
name: "flatten_2" | |||||
type: "Flatten" | |||||
bottom: "conv3" | |||||
top: "flatten_2" | |||||
} | |||||
layer { | |||||
name: "dense" | |||||
type: "InnerProduct" | |||||
bottom: "flatten_2" | |||||
top: "dense" | |||||
inner_product_param { | |||||
num_output: 2 | |||||
} | |||||
} | |||||
layer { | |||||
name: "relu4" | |||||
type: "ReLU" | |||||
bottom: "dense" | |||||
top: "dense" | |||||
} |
@@ -0,0 +1,114 @@ | |||||
input: "data" | |||||
input_dim: 1 | |||||
input_dim: 1 | |||||
input_dim: 22 | |||||
input_dim: 22 | |||||
layer { | |||||
name: "conv2d_12" | |||||
type: "Convolution" | |||||
bottom: "data" | |||||
top: "conv2d_12" | |||||
convolution_param { | |||||
num_output: 16 | |||||
bias_term: true | |||||
pad: 0 | |||||
kernel_size: 3 | |||||
stride: 1 | |||||
} | |||||
} | |||||
layer { | |||||
name: "activation_18" | |||||
type: "ReLU" | |||||
bottom: "conv2d_12" | |||||
top: "activation_18" | |||||
} | |||||
layer { | |||||
name: "max_pooling2d_10" | |||||
type: "Pooling" | |||||
bottom: "activation_18" | |||||
top: "max_pooling2d_10" | |||||
pooling_param { | |||||
pool: MAX | |||||
kernel_size: 2 | |||||
stride: 2 | |||||
pad: 0 | |||||
} | |||||
} | |||||
layer { | |||||
name: "conv2d_13" | |||||
type: "Convolution" | |||||
bottom: "max_pooling2d_10" | |||||
top: "conv2d_13" | |||||
convolution_param { | |||||
num_output: 16 | |||||
bias_term: true | |||||
pad: 0 | |||||
kernel_size: 3 | |||||
stride: 1 | |||||
} | |||||
} | |||||
layer { | |||||
name: "activation_19" | |||||
type: "ReLU" | |||||
bottom: "conv2d_13" | |||||
top: "activation_19" | |||||
} | |||||
layer { | |||||
name: "max_pooling2d_11" | |||||
type: "Pooling" | |||||
bottom: "activation_19" | |||||
top: "max_pooling2d_11" | |||||
pooling_param { | |||||
pool: MAX | |||||
kernel_size: 2 | |||||
stride: 2 | |||||
pad: 0 | |||||
} | |||||
} | |||||
layer { | |||||
name: "flatten_6" | |||||
type: "Flatten" | |||||
bottom: "max_pooling2d_11" | |||||
top: "flatten_6" | |||||
} | |||||
layer { | |||||
name: "dense_9" | |||||
type: "InnerProduct" | |||||
bottom: "flatten_6" | |||||
top: "dense_9" | |||||
inner_product_param { | |||||
num_output: 256 | |||||
} | |||||
} | |||||
layer { | |||||
name: "dropout_9" | |||||
type: "Dropout" | |||||
bottom: "dense_9" | |||||
top: "dropout_9" | |||||
dropout_param { | |||||
dropout_ratio: 0.5 | |||||
} | |||||
} | |||||
layer { | |||||
name: "activation_20" | |||||
type: "ReLU" | |||||
bottom: "dropout_9" | |||||
top: "activation_20" | |||||
} | |||||
layer { | |||||
name: "dense_10" | |||||
type: "InnerProduct" | |||||
bottom: "activation_20" | |||||
top: "dense_10" | |||||
inner_product_param { | |||||
num_output: 3 | |||||
} | |||||
} | |||||
layer { | |||||
name: "prob" | |||||
type: "Softmax" | |||||
bottom: "dense_10" | |||||
top: "prob" | |||||
} |