タグ: エッジAI

  • Microsoftの小型言語モデルPhi‑3:軽量でも高性能

    大型モデルが注目されるなか、Microsoftは小型言語モデル(Small Language Model:SLM)の可能性を追求しています。Phi‑3ファミリーはパラメータ数が3.8億から数十億と小さいながら、同サイズや一つ上のサイズのモデルを上回る性能を示しました。小型モデルに最適化されたデータセットや訓練手法を用いることで、低消費電力デバイスでも高い言語理解やコード生成が可能です。news.microsoft.com

    特長と利点

    特長説明
    小型化3.8BパラメータのPhi‑3 miniなど、軽量でスマートフォンやエッジデバイスでも動作
    高性能同サイズややや大きいモデルを凌ぐ言語理解・コーディング能力
    学習データセット子どもの読書レベルのテキストを大量に読み込ませ、効率的な学習を実現

    応用例

    Phi‑3は消費電力が限られたデバイスやプライバシーを重視する環境で役立ちます。組み込みシステムやIoTデバイスに自然言語インターフェースを実装する際に最適です。初心者は省リソース環境向けモデルの設計思想を学ぶことができます。

    まとめ

    小型モデルの躍進は、AIをより多くのアプリケーションに展開する鍵となります。Phi‑3の研究は効率と性能のバランスが取れたモデル設計の重要性を教えてくれます。

    参考文献

    news.microsoft.com

  • gpt‑oss:初のApache2ライセンス大規模モデルを試す

    オープンソースコミュニティに朗報です。OpenAIが2025年8月5日に発表したgpt‑ossシリーズは、商用利用も可能なApache 2.0ライセンスで公開された大規模モデルです。Mixture‑of‑Experts構造により、コンパクトながら高性能を実現しています。simonwillison.net

    f8cb85a3-20c1-4166-9f01-d96bb5bb9b1b_16x9.png

    特長のまとめ

    gpt‑ossシリーズの主な特長を表に整理しました。

    特長要点
    高性能と小型化の両立120bはo4‑miniに匹敵し、20bはノートPCでも動作可能
    Mixture‑of‑Experts構造アクティブパラメータを絞って効率的に推論
    高い知識性能GPQAで80%以上の正答率を記録
    徹底した訓練210万H100時間を投じCoT強化学習を実施

    120bと20bの比較

    用途に応じて適切なモデルを選ぶために、gpt‑oss‑120bと20bの違いをまとめました。

    モデル推論用メモリアクティブパラメータ総パラメータ備考
    gpt‑oss‑120b80GB約5.1B117B性能重視。サーバーGPUでの運用向け
    gpt‑oss‑20b16GB約3.6B21BノートPCやローカル環境で動作可能simonwillison.net

    使いどころ

    ローカル環境でのAI実験やプライバシー重視のアプリケーションに最適です。軽量モデルでもCoTを活用した推論ができるため、エッジデバイスでのパーソナルエージェントや独自のツール連携を構築する際にも有用です。

    参考文献

    simonwillison.net