Lenet(Mnist)の結果 | python3Xのブログ

python3Xのブログ

ここでは40代、50代の方が日々の生活で役に立つ情報や私の趣味であるプログラム、Excelや科学に関する内容で投稿する予定です。

Epoch 1/12
48000/48000 [==============================] - 56s 1ms/step - loss: 0.1762 - acc: 0.9464 - val_loss: 0.0604 - val_acc: 0.9814
Epoch 2/12
48000/48000 [==============================] - 55s 1ms/step - loss: 0.0472 - acc: 0.9852 - val_loss: 0.0411 - val_acc: 0.9864

・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・

Epoch 10/12
48000/48000 [==============================] - 59s 1ms/step - loss: 0.0072 - acc: 0.9974 - val_loss: 0.0347 - val_acc: 0.9914
Epoch 11/12
48000/48000 [==============================] - 60s 1ms/step - loss: 0.0053 - acc: 0.9984 - val_loss: 0.0456 - val_acc: 0.9882
Epoch 12/12
48000/48000 [==============================] - 58s 1ms/step - loss: 0.0041 - acc: 0.9988 - val_loss: 0.0447 - val_acc: 0.9910
Test loss: 0.032186202095684256
Test accuracy: 0.9912

 

かなりの良い結果が得られています

 

書籍では、最近のプーリング層を含まないモデルを危惧するコメントがありましたが

それは、バッチノーマライゼーションを用いて、

プーリング層を省いたモデルのことを言っていると解釈したのですが、

真相のほどは分かりません