今日はまたニューラルネットワークでの画像認識で隠れ層を増やすとどうなるかを追究した。先週まで256個の隠れ層を試したので、今日からは512個で試した。隠れ層が増えたため、225枚を学習させるのにはかなり時間がかかっていて、一つのepochが2分ほどであった。40分程度はかかった。
150枚で512個の隠れ層、225枚でと試した。150枚はなかなかいい結果となったが、225枚のほうは128個の隠れ層の時のほうがいい学習ができていた。512個にすると128個に続いて2番目によい学習成果となった。128がよく、256個もよいと考察をしやすいが、256が最低で512がよかったので、なぜこうなるのかわかりづらい。今後300枚や75枚の時などもっと調べていきたい。また、隠れ層を減らすことにも挑戦したい。
図が見づらかったので、それらの整理も今日行った。枚数ごとに結果を比較し計算し終えたものを載せていたが、それだとデータ数が多いと見づらくなるので、そのまま数値をコピーしてまとめた表とした。これにより無駄なところを見る必要がなくなった。