1. gpt-ossとは?
OpenAIが2025年8月5日に公開した、初のオープンウェイト推論モデルです。これまでChatGPTなどのクローズドなAIとは異なり、誰でも無料でダウンロードし、ローカル環境で実行できる画期的なAIモデルです。
2つのモデル
- gpt-oss-120b:高性能版(117億パラメータ)
- gpt-oss-20b:軽量版(21億パラメータ)
2. 必要な環境
最低システム要件
gpt-oss-20b(軽量版)
- メモリ:16GB以上
- GPU:NVIDIA/AMD各種対応
- 推奨:一般的なゲーミングPC程度
gpt-oss-120b(高性能版)
- メモリ:80GB以上(GPU+RAMの合計)
- GPU:NVIDIA H100理想だが、一般的なGPU+大容量RAMでも動作可能
- 推奨:自作PC環境での実例では約30万円構成
3. インストール方法(初心者向け)
方法1:LM Studio(最も簡単)
手順1:LM Studioのダウンロード
- LM Studio公式サイトからソフトウェアをダウンロード
- インストール後、アプリケーションを起動
手順2:モデルのダウンロード
Copy# gpt-oss-120b(大型モデル)
lms get openai/gpt-oss-120b
# gpt-oss-20b(軽量モデル、推奨)
lms get openai/gpt-oss-20b
手順3:設定
- 「読み込むモデルを選択」から詳細設定
- GPUオフロード:利用可能な範囲で設定
- コンテキスト長:推奨は8192〜15616トークン
方法2:Ollama(コマンドライン慣れしている方向け)
インストール
- Ollama公式サイトからダウンロード・インストール
モデル実行
Copy# gpt-oss-120b
ollama pull gpt-oss:120b
ollama run gpt-oss:120b
# gpt-oss-20b(軽量版、推奨)
ollama pull gpt-oss:20b
ollama run gpt-oss:20b
方法3:Python環境(開発者向け)
必要なパッケージのインストール
Copypip install --upgrade accelerate transformers kernels torch
pip install gpt-oss
基本的な実行コード
Copyfrom transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "openai/gpt-oss-20b" # 軽量版を推奨
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
model_id,
device_map="auto",
torch_dtype="auto",
)
messages = [
{"role": "user", "content": "pythonでフィボナッチ数列を作成してください"},
]
inputs = tokenizer.apply_chat_template(
messages,
add_generation_prompt=True,
return_tensors="pt",
return_dict=True,
).to(model.device)
generated = model.generate(**inputs, max_new_tokens=100)
print(tokenizer.decode(generated[0][inputs["input_ids"].shape[-1]:]))
4. 初心者におすすめの順序
- まず試してみる:HuggingFaceで無料体験
- 軽量版から始める:gpt-oss-20bでローカル実行に慣れる
- 段階的にアップグレード:必要に応じて高性能版やハードウェア強化を検討
5. 実際の性能例
gpt-oss-20b(軽量版)
- 実行速度:約140tokens/秒
- メモリ使用量:約14GB(VRAM)
- 数学問題や論理推論に優れた性能
gpt-oss-120b(高性能版)
- 実行速度:約8.4tokens/秒(一般的なPC環境)
- より高度な推論能力
- 大規模なコンテキスト処理が可能
実際の動作例では、約30万円の自作PCでも120bモデルの実行が確認されています。
6. コスト比較
- 完全無料:ローカル実行(電気代のみ)
- クラウド利用:OpenRouterで約1ドル/100万トークン
- ハードウェア投資:一度の投資で永続利用可能
7. 注意点とトラブルシューティング
よくある問題
- メモリ不足:軽量版(20b)から始めることを推奨
- GPU非対応:CPU+RAMでも動作可能(速度は劣る)
- ダウンロード時間:120bは約64GB、20bは約12GBのファイルサイズ
ライセンス
Apache 2.0ライセンスで提供され、商用利用も可能です。
まとめ
gpt-ossは、OpenAIが提供する初のオープンソースAIモデルとして、誰でも自由に利用できる画期的な存在です。初心者の方はgpt-oss-20bから始めて、LM Studioを使用することを強くお勧めします。
プライベートなデータを扱いたい場合や、継続的にAIを活用したい方には、ローカル実行による完全なデータコントロールが大きなメリットとなるでしょう。
関連リンク: