タグ: Mixture-of-Experts

  • gpt‑oss:初のApache2ライセンス大規模モデルを試す

    オープンソースコミュニティに朗報です。OpenAIが2025年8月5日に発表したgpt‑ossシリーズは、商用利用も可能なApache 2.0ライセンスで公開された大規模モデルです。Mixture‑of‑Experts構造により、コンパクトながら高性能を実現しています。simonwillison.net

    f8cb85a3-20c1-4166-9f01-d96bb5bb9b1b_16x9.png

    特長のまとめ

    gpt‑ossシリーズの主な特長を表に整理しました。

    特長要点
    高性能と小型化の両立120bはo4‑miniに匹敵し、20bはノートPCでも動作可能
    Mixture‑of‑Experts構造アクティブパラメータを絞って効率的に推論
    高い知識性能GPQAで80%以上の正答率を記録
    徹底した訓練210万H100時間を投じCoT強化学習を実施

    120bと20bの比較

    用途に応じて適切なモデルを選ぶために、gpt‑oss‑120bと20bの違いをまとめました。

    モデル推論用メモリアクティブパラメータ総パラメータ備考
    gpt‑oss‑120b80GB約5.1B117B性能重視。サーバーGPUでの運用向け
    gpt‑oss‑20b16GB約3.6B21BノートPCやローカル環境で動作可能simonwillison.net

    使いどころ

    ローカル環境でのAI実験やプライバシー重視のアプリケーションに最適です。軽量モデルでもCoTを活用した推論ができるため、エッジデバイスでのパーソナルエージェントや独自のツール連携を構築する際にも有用です。

    参考文献

    simonwillison.net