JetsonのTensorRTですでに訓練済みSSDモデルをロードすると物体識別もやってくれます。この画像は、動画の中の物体を識別しているもののスナップショットで、まずまずなかんじです。
ところでどういうわけかPytorchで訓練済みResNetを動かすとエラーで動かない。WindowsでもPytorchでVGGを動かすとGPUメモリがないと言われてわずか1epochで終了してしまったりで、個人的にPytorchは嫌いです。
Jetsonの動作環境Jetpackには、Jetson用に作られたディープラーニングのライブラリなどがプレインストールされています。
Tensorflowもインストールして動かすことができますが、Jetson用にはTensorRTとかいう専用のものもあります。これらをどう使ったらいいのかわからなかったのですが、ここにいろいろな学習用のソースとかデータがあって、これで一通り触ることができます。
mp4や、Jetsonに接続したUSBカメラでリアルタイムに物体を識別するサンプルデモもあるので、早く雰囲気をつかみたい人には適してます。
JetsonにROSを入れ、すんなりいかずやっとtutlebot3が動くようになりました。
では今度は、SLAMも入れてシミュレータを動かそうとしたのですが、はまりました。
数日間、あれこれググったりしたのですが結局以下のようにするといいみたいです。
~/catkin_ws/ src/geometry2$ git branch
*noetic-devel
となるので、
~/catkin_ws/ src/geometry2$ git checkout melodic-devel
*melodic-devel
noetic-devel
と変更させてから ~/catkin_ws に行ってcatkin_make するとうまくビルドでき、gmappingが動きました。