今までは機械学習をさせる前に学習用データとテスト用データのシャッフルを毎回行っていたが、これだと何度も学習させる前にデータが変わってしまうので、これを変えずに学習だけさせたらどうなるかというのを見てみた。簡単なことがやりたいので、花データの一つで苦手なヒヤシンスのみで試してみた。特に学習データを変えずに学習をさせたところ、出力はほぼ同じだった。学習データをシャッフルさせていた時もほぼ同じだったが、たまに全く違う結果となることがある。

 

それから隠れ層を変更した。今までは64個にしていたが、今回は128個にしてみた。150枚学習の時は隠れ層が64個のほうが正答率、とってくる%の合計は高かった。

225枚の学習でも隠れ層を128個に増やした。これは素晴らしい結果を残した。正答率、%の合計ともに最も高くなった。150枚学習では隠れ層を増やしたら成績が下がったのに、225枚で上がったのはなぜか。

300枚の学習でも試した。225枚の学習には及ばないが、300枚で64個の隠れ層の時よりも良い成績となった。

75枚でも試したが今日は結果をまとめる時間がない。多分64個の隠れ層のほうが高いと思う。隠れ層は大きければ大きいほど良いのではなく、入力層とのバランスがよくなければならない。今回は225枚の学習には128個の隠れ層が最も適していたのだろう。すると75枚の学習では32個と小さい隠れ層のほうがよく、いい具合で重みづけができるかもしれない。300枚の入力層の時は、256個が適しているかもしれない。とにかく明日試してみよう。