ニューラルネットワークで今までは隠れ層を64個にしていたが、これを増やすとどうなるかに挑戦した。学習データが150枚の時は大きな違いはなかったが、225枚、300枚の時は隠れ層を増やすと正答数や上位3位に入ってくる%を足したものが向上していたので、75枚の学習では下がるだろうと思った。入力層が多ければ隠れ層を増やす、少なければ減らすのがよいと考えたためである。この75枚はどうなるかを今日調べたところ、やはり結果は悪くなっていた。隠れ層は入力層に合わせて変える必要があるといえる。

 

その後150枚の学習で256個の隠れ層にしたところ期待通り%は向上した。しかしなぜか225枚の学習では結果が悪くなってしまった。150枚が向上したのに期待外れとなった。次に300枚の学習にすると精度は上がっていた。また75枚でも試してみたが、これはほぼ変わらずであった。75枚では入力層が少ないため、結果が悪くなると考えていた。入力層に合わせて隠れ層を減らすべきかと考えていたが、簡単にそれで結果がよくなるとは言えない。

 

ここで入力層はすべて同じだと気付いた。変わっているのは入力枚数だけである。画像の大きさはすべて同じだからである。画像の枚数を増やしたら入力層が増えたといえるのだろうか。もっと調べる必要がある。

 

今後はもっとニューラルネットワークの勉強を進め、隠れ層を512個や32個などと上下させることに挑戦したい。