Raspberry Pi 4の8GBをファイルサーバやwikiなどのwebサービスを自宅内限定で実行させているが、
ollamaも動かしてみようと思って調べてみたら、
llama3.2:3bより
llama3.2:1bなら更に軽そうだったので入れてみた。
まず、ollamaのインストールは
curl -fsSL https://ollama.com/install.sh | sh
そして実行。
ollama run llama3.2:1b
LLMの容量は1.3GBくらいのようで、
ストレージは128GBの安いマイクロSDだが、動作も普通な感じ。
リソースはフルフル使っている感じ。
ローカル実行なのでAI回答中でもネットワークアクセスが無いのは当然だが、
ディスクアクセスも変化があまりない。
文字を出してくれる、ってだけで、なんか仕事している感じがする。
何かの提案や文章の要約くらいなら、回数制限を気にせず使えていいんじゃなかろうか。







