BT

最新技術を追い求めるデベロッパのための情報コミュニティ

寄稿

Topics

地域を選ぶ

InfoQ ホームページ ニュース モバイルやノートパソコンでローカル実行可能な大規模言語モデル MLC LLMを公開

モバイルやノートパソコンでローカル実行可能な大規模言語モデル MLC LLMを公開

MLC LLMは、大規模言語モデルを様々なハードウェアやアプリケーションに展開することを目的とした新しいオープンソースプロジェクトだ。このプロジェクトにはユースケース毎にモデルのパフォーマンスを最適化するためのフレームワークも含まれている。

私たちのミッションは、誰もが自前のデバイス上でAIモデルをネイティブに開発、最適化、デプロイできるようにすることです。すべてがサーバーに頼ること無くスマホやノートPCのGPUでローカル実行できるようになります。

MLC LLMの基盤にはmachine learning compilation(MLC)と呼ばれるアプローチがあり、MLプログラミングの抽象化、学習駆動型検索、コンパイル、最適化されたライブラリランタイムの組み合わせにより、容易に導入できるようになっている。

サーバーに展開されるケースと比較すると、本プロジェクトはサポートするハードウェアスペックの異質性という課題に直面する。これにはCPU、GPU、その他のコプロセッサやアクセラレータの異なるモデルへの対応、メモリ制約への対応、OS環境の変化への対応が含まれ、例えばPythonや特定のパッケージなどの依存関係が必ずしも認められるとは限らない。

これらの目標を達成するために、MLC LLMは深層学習システム用のコンパイラスタックであるApache TVM Unityをベースに、Hugging FaceやGoogleのトークナイザー、Llama、Vicuna、Dollyなどのオープンソースの大規模言語モデルを活用している。

プロジェクトには、C++ CLI tooliOS chat appが含まれており、コンパイルされた成果物と必要な前処理/後処理の統合方法は公開されている。

MLC LLMは、iPhone 14 Pro、M1またはA12Zチップ搭載iPad Pro、M1搭載MacBook Pro以降のモデルなど最近のApple SiliconやRaden Pro 5300M、AMD GPU on Steam Deck、RX6800 16G VRAMなどのAMD GPU、GTX 1060(6GB)、RTX 3080、RTX 2080TiなどのNVIDIA GPU、インテルUHD グラフィックス 630 GPUで展開できる。Android端末のサポートは現在準備中だ。

性能は対応ハードウェアによって大きく異なりNVIDIA GPU、AMD RX6800 16G VRAM、2021 MacBook Pro M1 Maxでは20トークン/秒を超えるスコアを記録している。比較参考値としては、M1 iPad Proは10.6トークン/秒、iPhone 14 Proは7.2トークン/秒であった。

プロジェクトメンテナによると、MLC LLMを使用することで、迅速な実験やコンパイラの最適化を試すことができ、最終的に狙ったターゲットに簡単にデプロイできるようになる、とのことだ。

MLCについてもっと詳しく知りたいならば、公式ドキュメントを参照してほしい。機械学習プログラムを表現するために使用される主要な抽象化、自動最適化技術、依存関係、メモリ、パフォーマンスに対する最適化方法について案内している。

なお、MLC LLMの関連プロジェクトとして、Webブラウザに特化したWebLLMもある。

作者について

この記事に星をつける

おすすめ度
スタイル

BT