自宅のパソコンでLLM(生成AI)を使える時代 | AIを使って生産性向上を目指すクリエイターM

AIを使って生産性向上を目指すクリエイターM

ツインレイと出会い人生V字回復を目指しています。
ココナラを通じてWordPressの復旧作業を多数請負った実績ありIT系の仕事をしたいという夢を叶えています。
法人化できるように活動しています。

OpenAIが開発したChatGPTやMicrosoftのBing、GoogleのBard、metaのLlamaなどをはじめオープンソースのLLMも登場するなど生成AIの開発競争が激しいです。

今日も、下記の記事をネットニュースで知りました。

 

 

 

私は、この記事を読んだ時に、あるプログラムを思い出しました。

Open Interpreterです。

こちらは、GPT-4のAPIを使わない場合は、Code Llamaを使うことで無料?で利用できます。

 

こうしたAIを使うときは、GPUのVRAMの容量がある程度必要です。

VRAMは、ノートパソコンの場合6GBのことが多いです。

高価なノートパソコンなら、8GB搭載の機種もあります。

でも、VRAM12GB以上となると高価なノートパソコンかタワー型のパソコンを使うことになります。

またインストールするための容量が、とても多く必要です。

FreedomGPTのウェブサイトで確認すると、250GB以上の空きが必要と書かれていました。

VRAMの容量、内蔵ストレージ(SSD)、RAMが16GB以上で、パソコンを探すと良いです。

外付けのSSDなどのストレージにインストール可能だと思いますので、外付けSSDで500GB程度の容量で探されると良いと思います。

Pythonの仮想環境を使うので、外付けでも動きます。

私は、外付けのSSDで、Stable Diffusion web UI(AUTOMATIC1111版)を使っています。

 

ローカルで生成AIを使うときは、VRAMは、12GB以上あると安心だと思います。

 

 

 

 

下記のノートパソコンは、こちらの情報からVRAMが12GBあると思われます。

 

 

 

 

NVIDIA GeForce RTX 4080 Laptop GPU搭載なので、VRAMが12GBのようです。

 

 

 

 

 

下記の機種は、RTX 4060 LaptopなのでVRAMは、8GBのようです。

VRAMが8GBあるとStable Diffusion web UI(AUTOMATIC1111版)を使う際も、安心だと思います。

 

Amazonでこまめにゲーミングパソコンの中でグラフィックボードとVRAMに気を配って探されると良いと思います。

楽天市場でも、見つかるかもしれないです。