OpenAIが開発したChatGPTやMicrosoftのBing、GoogleのBard、metaのLlamaなどをはじめオープンソースのLLMも登場するなど生成AIの開発競争が激しいです。
今日も、下記の記事をネットニュースで知りました。
https://t.co/97CffqFepY
— エンジニアM168 (@masaru21) October 3, 2023
この記事、VRAMが6GBということですよね。
元記事を読んだら、しっかりパソコン本体のメモリが必要だったので、記事を書いた人に確認したいです。
誰か確認してほしいです。#拡散希望
私は、この記事を読んだ時に、あるプログラムを思い出しました。
Open Interpreterです。
こちらは、GPT-4のAPIを使わない場合は、Code Llamaを使うことで無料?で利用できます。
こうしたAIを使うときは、GPUのVRAMの容量がある程度必要です。
VRAMは、ノートパソコンの場合6GBのことが多いです。
高価なノートパソコンなら、8GB搭載の機種もあります。
でも、VRAM12GB以上となると高価なノートパソコンかタワー型のパソコンを使うことになります。
またインストールするための容量が、とても多く必要です。
FreedomGPTのウェブサイトで確認すると、250GB以上の空きが必要と書かれていました。
VRAMの容量、内蔵ストレージ(SSD)、RAMが16GB以上で、パソコンを探すと良いです。
外付けのSSDなどのストレージにインストール可能だと思いますので、外付けSSDで500GB程度の容量で探されると良いと思います。
Pythonの仮想環境を使うので、外付けでも動きます。
私は、外付けのSSDで、Stable Diffusion web UI(AUTOMATIC1111版)を使っています。
ローカルで生成AIを使うときは、VRAMは、12GB以上あると安心だと思います。
下記のノートパソコンは、こちらの情報からVRAMが12GBあると思われます。
https://t.co/CQFMaich01
— エンジニアM168 (@masaru21) October 3, 2023
ノートパソコンのVRAMを調べえるときに、助かります。
NVIDIA GeForce RTX 4080 Laptop GPU搭載なので、VRAMが12GBのようです。
下記の機種は、RTX 4060 LaptopなのでVRAMは、8GBのようです。
VRAMが8GBあるとStable Diffusion web UI(AUTOMATIC1111版)を使う際も、安心だと思います。
Amazonでこまめにゲーミングパソコンの中でグラフィックボードとVRAMに気を配って探されると良いと思います。
楽天市場でも、見つかるかもしれないです。