Kaggleで、機械学習のモデルを走らせると、割り当てられてるCPUのせいか遅い。GPUも週に30時間使えるけど、いろいろ試すには物足りない。そこでお古のラズパイ4を最新のOSにして、lightGBMやその他のモデルを走らせてみた。
今度は、CSVファイルを読み込んだだけなのにメモリ不足でフリーズ。仮想メモリを2GBに増やすと、CSVは読み込むがモデルの学習でフリーズする。4GBに無理矢理増やすとなんとか走った。ただ、SDカードを仮想メモリに使ってしまったので、寿命が縮まるかも。SSDの外付けで仮想メモリにも使っている記事があったので、今度はそれをやってみたい。
こちらの記事を参考にさせていただきました。
