Mistral AIはMagistral、透明性のある多段階推論のために構築された新しいモデルファミリーをリリースした。オープンバージョンとエンタープライズバージョンが利用可能で、構造化されたロジック、多言語出力、追跡可能な意思決定をサポートする。
Magistralは法務、金融、医療、物流、ソフトウェアなどの複雑なタスクにおいて、構造化され解釈可能な推論を行うよう設計されている。アラビア語、中国語、フランス語、ドイツ語、スペイン語を含む複数言語での多段階思考連鎖生成をサポートしている。
ベンチマークでは競争力のあるパフォーマンスを示している:
-Magistral MediumはAIME 2024で73.6%、多数決@64で90%を獲得
-Magistral Smallはそれぞれ70.7%と83.3%を達成
このモデルはロジックの明確さとステップバイステップの追跡可能性を重視しており、規制遵守から戦略的モデリングまで監査性が必要なユースケースに適している。
Mistralはスピードも重要な差別化要因としてプロモートしている。Le ChatのFlash Answersシステムを使って、Magistralは標準モデルと比較して最大10倍のトークンスループットを実現し、リアルタイムインタラクションやフィードバックループをサポートする。しかしアーリーユーザーフィードバックでは、パフォーマンスと使いやすさのトレードオフに関して意見が分かれている。あるRedditユーザーが書いた:
10倍の推論速度で10%の改善、そして全体的な使いやすさは低下。個人的にはこれに対するユースケースが見当たりません。 トークン使用から既に増加した利益に対してこのAPI価格設定は私には理解できません。数時間テストしましたが二度と使うことはないでしょう。Mistral Small 3.1は私のドライブに残りますが。
コンテキスト長の制限に関する懸念も浮上している。多くのエンタープライズグレードのモデルがコンテキスト上限を100Kトークン以上に押し上げている一方で、Magistralは現在40Kトークンのコンテキストを提供している。AIソリューション企業のCOO Romain Chaumais氏はコメントした:
おめでとうございます!しかしコンテキストが40Kトークンしかないと、ユースケースはかなり限られるのではないでしょうか?Mistral AI — 200Kコンテキストに引き上げる計画はありますか?
このモデルは深い推論、RLHF(reinforcement learning from human feedback)、および多段階ロジックの透明性にフォーカスしてトレーニングされている。Mistralの付随する研究論文では、そのトレーニング方法、インフラストラクチャ、推論パフォーマンスの最適化に関する洞察が概説されている。
Magistral SmallはHugging Faceを介してセルフホスト型デプロイメントが可能だ。一方、Magistral MediumはLe Chatでアクセスでき、Azure AI、IBM WatsonX、Google Cloud Marketplaceなどのプラットフォームへの展開も計画されている。
MistralはMagistralファミリーのラピッドイテレーションを目指していると述べている。アーリーコミュニティは、特にオープンウェイトのSmallモデル上に構築することを期待している。