BT

最新技術を追い求めるデベロッパのための情報コミュニティ

寄稿

Topics

地域を選ぶ

InfoQ ホームページ ニュース OpenAIがgpt-oss-120bとgpt-oss-20bをリリース、ローカルデプロイメント向けのオープンウェイト言語モデル

OpenAIがgpt-oss-120bとgpt-oss-20bをリリース、ローカルデプロイメント向けのオープンウェイト言語モデル

原文リンク(2025-08-08)

OpenAIはgpt-oss-120bとgpt-oss-20b、高性能な推論、ツールの使用、効率的デプロイを目的とした2つのオープンウェイト言語モデルをリリースした。これらはGPT-2以来の同社初の完全オープンウェイト言語モデルであり、寛容なApache 2.0ライセンスの下で利用可能である。

gpt-oss-120bモデルはエキスパートの混合アーキテクチャを使用してトークンごとに51億のパラメータを活性化する。コア推論ベンチマークで独自のo4-miniと同等かそれ以上で、80 GBのシングルGPUで効率的に動作する。より小型のgpt-oss-20bモデルは21億のパラメータのうち36億を活性化し、16GBのコンシューマー向けハードウェアで動作可能であり、クラウドインフラに依存せずにデバイス上での推論やラピッド・イテレーションに適している。

両モデルは連鎖思考推論、ツールの使用、構造化出力などの高度な使用ケースをサポートする。開発者は速度と精度のバランスを取りながら、様々なレベルの推論エフォートを適用するようモデルを構成できる。

OpenAIの内部oシリーズモデルから適応された技術を使用して訓練されたgpt-ossモデルは、回転位置埋め込み、グループ化マルチクエリアテンション、128kコンテキスト長をサポートする。MMLU、HealthBench、Codeforces、TauBenchなどのコーディング、健康、数学、エージェントベンチマークで評価され、o4-miniやGPT-4oのようなクローズドモデルと比較しても強力なパフォーマンスを示した。

出典:Open AI Blog

OpenAIは、連鎖思考(CoT)推論に直接監督を適用せずにモデルをリリースし、研究者がバイアスや誤用などの潜在的な問題を研究するための推論トレースを調査できるようにしている。

リスクを評価するために、OpenAIは生物学とサイバーセキュリティの敵対的データを使用して、モデルの最悪シナリオでのファインチューニングを行った。強力なファインチューニング努力にもかかわらず、OpenAIの準備フレームワークによるとモデルは高リスク能力レベルに達しなかった。外部の専門家レビュアーからの所見が最終リリースに反映された。同社はモデルを実世界の条件でさらに評価するために50万ドルの賞金プールを持つレッドチーミングチャレンジも開始した。

モデルはHugging Faceやいくつかのデプロイプラットフォームで利用可能だ。20Bモデルは16 GBのRAMだけでローカル実行可能だ。あるRedditユーザーが質問した

このモデルはインターネットに接続せずにローカルなコンピュータで使用可能でしょうか?このモデルを実行できる最低スペックのコンピュータは何でしょう(Altman氏は「ハイエンド」と言っています)?

別のユーザーが明確化した:

ダウンロード後、実行するためにインターネットは必要ありません。スペックについて:20Bを適切に「実行」するには少なくとも16GBのRAM(VRAMまたはシステム)が必要です。16GBのMacBook Airは毎秒数十トークンで実行できます。最新のGPUは毎秒数百トークン以上に達します。

MicrosoftはONNX Runtimeを介してWindowsに20BモデルのGPU最適化バージョンも提供し、Foundry LocalおよびVS CodeのAIツールキットを通じて利用できるようにしている。

作者について

この記事に星をつける

おすすめ度
スタイル

特集コンテンツ一覧

BT