知見のアーカイブ

gpt-oss-120bとgpt-oss-20bの概要と比較

gpt-oss-120bとgpt-oss-20bの概要と比較

以下の表は、OpenAIが2025年8月に発表したオープンソースGPTモデル「gpt-oss-120b」「gpt-oss-20b」と、従来のGPTモデル(例:GPT-4 API)の主な特徴を比較したものです。これらは従来のGPTモデルとは異なり、学習済みモデルの重みが公開され、Apache 2.0ライセンスで利用可能となっています (1) (2)。

項目 GPT-OSS-20B GPT-OSS-120B 従来GPT (例: GPT-4)
パラメータ数 約21億 (21B) 約117億 (117B) 非公開 (数百億規模と推定)
ライセンス Apache 2.0 (オープン) Apache 2.0 (オープン) 非公開・閉鎖的 (OpenAI API契約)
実行環境 メモリ16GB級の一般PC (Snapdragon系PCなど含む) (3) (4) 単体80GB級GPU(例:RTX PRO/H100) クラウド (ユーザPCでは実行不可)
主な用途 コード生成・数学・推論など少規模タスク (5) (6) 大規模推論・分析タスク (科学・医療・複雑なプログラミング等) 総合的な対話応答・知識利用 (APIベース)
カスタマイズ 完全なチューニング・カスタマイズが可能 同左(完全カスタマイズ可能) モデル改変不可 (プロンプト工夫のみ)
データ管理 完全オンプレミス実行可 (処理は全て手元で完結) (7) (8) 同左 クラウド依存 (データはOpenAIサーバへ送信)
費用 モデル本体・ライセンスは無料 (運用コストは計算資源に依存) 同左 API利用料(月額や消費課金)が必要
  • オープンソース・オープンウェイト: これらのgpt-ossモデルはApache 2.0ライセンスで公開されており、モデルの重みやコードを自由に利用・改変できます 。これはGPT-3以降のOpenAIモデルには見られなかった旗艦的な方針転換で、GPT-2以来(2019年)の最初のオープンソースLLMとなります 。
  • 推論性能: gpt-oss-120bは「コア推論ベンチマーク」でOpenAIのo4-mini(GPT-4に近い性能)とほぼ同等の結果を示しています。gpt-oss-20bも同ベンチマークでo3-miniと同レベルの性能を発揮しつつ、16GBメモリのPCで動作可能です 。いずれのモデルもツール呼び出しやfew-shot学習、チェイン・オブ・ソート推論に強く、健康関連タスクではGPT-4などを上回る評価結果も報告されています 。
  • オープンな推論プロセス: gpt-ossモデルは内部の思考過程(チェイン・オブ・ソート)や構造化出力を完全に開示します 。開発者は推論のステップを確認・制御でき、タスクに応じて推論の“努力量”を調整可能です。従来のGPT(ChatGPT等)は推論自体はブラックボックスで提供されるのに対し、gpt-ossでは透明性が高くなっています。
  • マルチプラットフォーム展開: 公式発表によれば、これらのモデルはローカルPC、クラウド、エッジ機器などあらゆる環境で実行できるよう設計されています 。実際にAzureやAWS、Hugging Face、vLLM、Ollamaなど多くのプラットフォームが早期に対応しており 、Windows環境向けにはGPU最適化版(ONNX使用)も提供予定です 。NVIDIAとの協業によりGeForce RTX/RTX PRO GPU向けの高速化も進められており、RTX 5090では1秒間に256トークン超の推論速度が示されています 。

gpt-oss-モデルの意義とOSS(オープンソース)とは

「OSS(オープンソース)」とは、ソフトウェア(モデル)のソースコードや学習済み重みが公開され、誰でも無償で使用・改変・配布できる形態を指します 。gpt-ossシリーズはまさにこのOSS的アプローチで提供され、研究者や開発者は独自データでファインチューニングしたり、用途に合わせてモデル構造を変えたりすることが可能です。これにより、前述のようにローカル実行可・データ非送信で動作できるため、データプライバシーやレイテンシ面で利点があります 。OpenAI自身も、このリリースを“民主化”の一環と位置付けており、アフリカ諸国を含む新興国や中小企業も最新レベルのAI技術を手元で試せるようになるとしています 。

gpt-oss-モデルのイメージ

従来GPTモデル(ChatGPT/GPT-4)との違い

  • 提供形態の違い: 従来のGPTシリーズは主にAPI経由で提供され、利用時にはOpenAIサーバへデータ送信が必要でした。対してgpt-ossはモデル本体をダウンロードして自社サーバやPC上で実行可能です 。
  • ライセンスとコスト: gpt-ossはオープンライセンスで自由に使えます(実行コストは依存するハードウェアに限る) 。従来モデルはAPI契約による有料サービスで、利用料がかかります。
  • ハードウェア要件: gpt-oss-20bは消費者向けPCでの動作を重視し、16GBメモリで動作するよう設計されています 。gpt-oss-120bはより大規模で、80GB級GPU(例:NVIDIA H100やRTX PRO)が必要です 。これに対し、GPT-4モデルはエンドユーザー機には配布されず、大規模なクラウドインフラ上でのみ動作します。
  • 推論機能の違い: gpt-ossモデルは内包するチェイン・オブ・ソート出力が開示されるため、推論の過程を開発者が把握・制御できます 。従来モデルではユーザーにこの過程は見えません。また、gpt-oss-モデルは最大13万トークンまでの長文コンテキストを扱える超長文対応が特徴です 。
  • 安全性と評価: OpenAIはgpt-ossにも全的な安全性評価・訓練を施し、フロンティアモデルと同等の安全基準を満たしています 。すでに悪用対策として敵対的ファインチューニング版も評価済みで、従来と同レベルの安全性管理が行われています。

従来GPTモデル(ChatGPT/GPT-4)のイメージ

PCでの実行環境と利用例

  • 必要メモリと対応GPU: gpt-oss-20bは16GBのRAMを搭載した最新PC上で動作します 。QualcommもSnapdragon搭載PC(高性能ノートや開発キット)での動作を確認しており、24GBのメモリがあれば安定稼働します (9) 。NVIDIA系ではGeForce RTXシリーズ(VRAM≥16GB)で動作可能です 。一方、gpt-oss-120bはRTX PROやデータセンター向けGPUなど大容量メモリ環境が必要です 。Windows 11ではMicrosoftがこれらのモデルをONNX最適化し、Foundry LocalやVS Code AIツールキットで簡単に実行できるようになります 。
  • ソフトウェア環境: リリース直後からHugging FaceやvLLM、Ollama、llama.cppなど多くの推論ライブラリ・サービスが対応済みです 。AppleはMetal対応の参照実装も公開しており、M1/M2系Mac上でも動作させられます。これにより、Windows・Linux・macOS・ARMなど幅広い環境で活用できます。
  • 企業・組織での活用事例: OpenAIはAI SwedenやOrange、Snowflakeと協力し、実用化に向けた検証を進めています 。例えばスウェーデンのAI Swedenは公共部門向けデジタルアシスタント開発でgpt-ossを評価中で、行政文書の専門用語理解などに活用検討しています (10) 。フランステレコム大手のOrangeは新モデルを自社データセンターで運用し、多言語チャットボットやネットワーク保守支援などに活用する計画です 。このようにgpt-ossモデルはデータ主権コスト削減を重視する企業・組織に適しており、アフリカ地域言語への対応強化にも使われています 。

PCのイメージ

📊 お役立ち資料
国内99件のAI・データ活用プロジェクトの成功事例をまとめた資料です。 関心のある業界や、気になる関連企業の成功事例の詳細な事例集をご覧にいただけます。
ダウンロードはこちら

注意点・課題

gpt-ossモデルは強力ですが、使用にあたって以下の点に留意する必要があります。まず対応言語・ドメインです。訓練データは主に英語の科学・数学・コードに重点を置いており 、日本語を含むその他言語や一般常識領域での性能は限定的かもしれません。必要に応じて日本語データでの微調整が望まれます。また計算リソースは十分必要です。特に120Bモデルは1GPUでも80GB級メモリを占有するため、高価なGPUや複数GPU環境が求められます。20Bモデルでも推論速度は16GB環境では控えめで、大量・定常的な利用には電力・時間のコストがかかります。さらにOSSモデルであるがゆえに悪用対策はユーザー自身の責任です。OpenAIは安全性評価を実施していますが、公開されたモデルをそのまま使う場合は、出力内容の検証やフィルタリングを独自に行う必要があります。

注意点・課題のイメージ

まとめ

gpt-oss-120bおよびgpt-oss-20bは、OpenAIが5年ぶりに公開したオープンウェイト大規模言語モデルです 。Apache 2.0ライセンスによる公開により、研究者・開発者は無料で試用し、独自用途に最適化できます。これまでCloud依存だったGPTモデルをローカルPCで実行可能にしたことで、プライバシー保護やコスト削減、学術・教育利用が格段にしやすくなりました 。一方で、利用にあたってはハードウェア要件安全性の運用管理に注意が必要です。OpenAIはこれらのモデルを「開発者が自由にAIを実行・カスタマイズできるツール」と位置づけており 、今後の研究・産業応用が広がることが期待されます。

参考資料: OpenAI公式ブログ 、報道記事 など。

📑 資料請求
 代表者直筆! ビッグデータラボの事例に基づく、社内でAI・データ活用のプロジェクトを進める上でのノウハウをまとめました。
ダウンロードはこちら

お問い合わせ

下記フォームよりお気軽にお問い合わせください。
担当者より折り返しご連絡いたします。

医療・ヘルスケア生成AI・LLMデータ分析講座設計支援