今回の学習は長時間(期間)掛かるため、モデルの重みを保存し再学習する必要が出てきました
(Google Colabは制限時間が来たり、アクセスがなかったらセッションが切れてしまいます)
このため
①1エポック当たりのモデルを保存、検証の値(loss最小値のモデルを選択するため)
も分かるように名前で保存します
②入力時によく知られるRGBをLABに変換し、予測後の後処理前まではLABで処理する
その後、後処理で予測の形をRGBに変換(もどす)します
②今回は、前回のノイズ除去と違って、より表現力が求められるため、プーリングは使わずに
Encoderの畳み込み層(Conv2D)でチャンネル数を増やし(倍々になっている)
DecoderのTransposedConv2Dはアップサンプリングとは別のアプローチで
入力テンソルの拡大を行っています
+拡大の処理と畳み込み処理を1層で行っています
後、苦労したのはGoogle Colabは絶対パスでしか処理できないという事と
hdf5、h5pyのインストールです
ネット上にあった
pip install h5py やら
conda install hdf5
を実行してもh5やhdf5で保存することは出来ませんでした
他にCgywinを使ってコンパイルする方法とかもありましたし
その他もろもろ・・・ (結果失敗)
これも、さんざん遠回りしましたが、
conda install -c anaconda hdf5
conda install -c anaconda h5py
この2つのコマンド
これだけで全て上手くいきました
(苦笑)
