OpenAIからgpt-ossが発表になり自分のパソコンで使えると煽る投稿に注意 | AIを使って生産性向上を目指すクリエイターM

AIを使って生産性向上を目指すクリエイターM

ツインレイと出会い人生V字回復を目指しています。
ココナラを通じてWordPressの復旧作業を多数請負った実績ありIT系の仕事をしたいという夢を叶えています。
法人化できるように活動しています。

XなどのSNSの投稿を見ていると、OpenAIから発表になった無料で商用利用できるLLMを自分のパソコンで動いた、感動したという内容の投稿が散見されます。

でも、ここで注意が必要です。

 

🔷 gpt-oss-120b の概要

  • 総パラメータ数:117B(1170億)

  • アクティブパラメータ数:5.1B(推論時に使う部分)

  • 目的:高精度推論・プロダクション用途

  • 設計目標

    • 単一GPU(H100 80GB)で実行可能

    • OpenAI GPT-4o-mini 相当の能力

 

gpt-oss-120b は、一般的なゲーミングパソコンを言われるVRAMが多いパソコンでも、利用は、こんなんです。

 

🔶 必要な VRAM の目安

項目 数値
推奨GPU NVIDIA H100 80GB(または A100 80GB)
必要VRAM およそ 65GB〜80GB(FP16時)
量子化モデル(INT4, GGUF等) 使用可能なら 30GB〜50GB まで圧縮可能性あり(未確認)

 

 

 

gpt-oss-20bは、ハイスペックなパソコンなら動くというレベルなので、私のパソコンのVRAM6GB、RAM16GBのぱそこんでは、利用は不可能な状況です。

 

❌ なぜVRAM 6GBでは動かないのか?


VRAM 6GBでは、3.6Bアクティブパラメータ+中間アクティベーション+テンサーストレージがまったく足りません。

例えば、llama2-7b(70億パラメータ)でさえ最低 13〜16GB VRAMを必要とします(FP16時)。

gpt-oss-20bはllama2-13bに近いサイズ感なので、推論だけでも16GBは現実的な最低ラインです。

仮にCPUのみ(Offload)で動かす場合:

VRAMを使わず、すべてRAM側にオフロードする方法(例:ggml, exllama, gguf, mlcなど)もあります。

ただし、RAMが16GBぴったりでは不安定。スワップが入ると極端に遅くなります。

 

gpt-oss-20b の基本スペック

  • パラメータ数:21B(210億)

  • アクティブパラメータ数:3.6B(推論時に使う部分)

  • メモリ要件(目安)

    • GPU VRAM:最低でも16GB

    • CPU RAM:16GB以上(スワップ利用でも可だが非推奨)

 

✅ gpt-oss-20bをMacで動かす場合のポイント

要素 内容
Macのチップ M1 Pro / Max / Ultra 以上を推奨
ユニファイドメモリ(RAM) 32GB以上が推奨(最低でも24GB〜)
推論形式 gguf + llama.cpp, mlc-llm, exllama2, vLLM(Metal対応が鍵)
OS macOS 13 Ventura 以降推奨(Metal 3対応)

 

M1チップ以降のCPUは、ユニファイドメモリが利用できます。

そのためVRAM16GBで本体メモリ32GBのパソコンと同じレベルとすると、48GB以上搭載したMacBookやMacMIniになるようです。

私も、48GB搭載したMacMIniやMacBookを中古でも良いので、購入したいと思っています。

それで、このブログでも、過去ご紹介した機会が多かったです。

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

今回GPT-4oの回答を引用転載して、記事を書きました。

Yahoo!ショッピング(ヤフー ショッピング)

昔はプログラミングは、Windowsのパソコンで、芸術がMacという説明が、パソコンに馴染みのない人も理解してモラル紹介方法でした。

でも今の時代は、自分のパソコンで生成AIを使って、コーディングや動画生成、静止画生成したいときは、ユニファイドメモリが使えるMacという時代のように思います。

Windowsのパソコンで、Stable Diffusion WebUI AUTOMATIC1111が使えますが、今は、MacのOSでも使えるようです。

NSFWの画像や動画の生成をCloud環境で行うと、規約違反になる恐れがあります。

創作活動で露出の多い画像を作る必要があるときは、ローカルで画像生成ができるようにVRAM16GB以上のパソコンを選ぶのが良いです。

 

そこそもWindows11のバージョンアップが続いて今は、最低16GBの時代になっています。

プログラミング、コーディングでパソコンを使うときも、コーディング支援のAIでClaude Codeなどを使ってMCPサーバーを使うなどするときは、リソースのこともあるので、本体メモリが32GBのパソコンを使うのが安全だと思います。

 

gpt-oss の安全性と NSFW ポリシーについて

最近「gpt-oss nsfw」といった検索からのアクセスが増えているので、補足します。
gpt-oss は OpenAI が公開した テキスト生成専用のオープンウェイトモデル であり、画像や動画を生成するものではありません。

また、安全性の観点から NSFW(性的・暴力的・不適切なコンテンツ)には非常に敏感 で、基本的にそのような内容は生成されないようになっています。

開発者コミュニティでも「フィルタが厳しい」「NSFW は拒否される」といった報告が多く見られます。そのため「本当にそうなのか?」「どこまで対応できるのか?」を確認したい人が「gpt-oss nsfw」と検索するケースがあるようです。

つまり、この検索流入は 安全性の検証や興味関心によるもので、モデル自体が NSFW を目的としているわけではありません