初回のモデルは
・入力画像は256 x 256のチャンネル数 1のグレースケール
学習用画像数:541枚、検証用画像:140枚
・カーネルは出力層に向かって
64 ⇒ 64 ⇒ 1
・活性化関数はReLU
・padding は same
Layer (type) Output Shape Param #
=================================================================
input_1 (InputLayer) (None, 256, 256, 1) 0
_________________________________________________________________
conv2d_1 (Conv2D) (None, 256, 256, 64) 640
_________________________________________________________________
conv2d_2 (Conv2D) (None, 256, 256, 64) 36928
_________________________________________________________________
conv2d_3 (Conv2D) (None, 256, 256, 1) 577
=================================================================
Total params: 38,145
Trainable params: 38,145
Non-trainable params: 0 2回目は 隠れ層の数を 15 に 出力層の活性化関数に tanh に変更する 結果は後程・・・