最後隠れ層を変更して色々見てみるのは今日で最後とした。32個の隠れ層で試した。32個は結構少ないが、学習枚数によって精度が比例するということはない。32個にしようが64個にしようが大きな違いはない。 これからはもっと学習枚数を増やしたり関数を変えたりする予定なので、今までで最もよかった学習枚数、隠れ層の個数と比較しながら考察できるとよい。精度よくニューラルネットワークを実現するにはどうすればよいか色々変更しながら試す。