InfoQ ホームページ 大規模言語モデル に関するすべてのコンテンツ
-
Meta Spirit LM、音声とテキストを統合した新しいマルチモーダルGenAIモデルを発表
最近の論文で発表されたSpirit LMは、話し言葉と書き言葉を混在させたパイプラインを作成し、音声とテキストを同じマルチモーダルモデルに統合することを可能にする。Meta社によれば、テキストと音声トークンのインターリーブに基づく新しいアプローチにより、音声とテキストに別々のパイプラインを使用する従来のソリューションの本質的な制限を回避することが可能になるという。
-
Amazon SageMaker JumpStartがBria AIのテキスト画像変換モデルでポートフォリオを拡大
Amazon Web Servicesは、Bria AIの最新のテキストから画像への基礎モデルをAmazon SageMaker JumpStartに統合し、エンタープライズグレードの生成AI機能を大幅に拡張した。今回の追加には、Bria 2.3、Bria 2.2 HD、Bria 2.3 Fastの3つのバリエーションが含まれ、それぞれがビジュアルコンテンツ生成における特定の企業ニーズに対応するように設計されている。
-
xAIがGrokモデルの新APIサービスを発表
Elon Musk氏のxAIは、開発者がアプリケーションにxAIの大規模言語モデル(LLM)を統合できるようになる、APIサービスのパブリックベータ版をローンチした。
-
DecartとEtchedがゲーム世界を変える新しいAIモデル、Oasisをリリース
Decart.aiとEtched.aiは最近Oasis、Minecraftにインスパイアされた完全インタラクティブ、リアルタイムオープンワールド体験を生成するAI駆動モデルを発表した。
-
AWSがAIエージェント管理のためのMulti-Agent Orchestratorフレームワークを公開
AWSはMulti-Agent Orchestrator、複数のAIエージェントを管理し、複雑な会話シナリオを処理するために設計されたフレームワークを発表した。このシステムはクエリを最適なエージェントにルーティングし、インタラクション間でコンテキストを維持し、AWS Lambda、ローカルセットアップ、その他クラウドプラットフォームなどさまざまなデプロイ環境とシームレスに統合する。
-
AISuiteは統一クロスLLM APIを提供する新オープンソースPythonライブラリ
最近Andrew Ng氏によって発表された、現在利用可能なもっとも一般的な大規模言語モデル(LLM)に対してOpenAIライクなAPIを提供することを目的としたaisuiteは、開発者がコードを変更することなく簡単にLLMを試して結果を比較したり、あるLLMから別のLLMに切り替えることを可能にする。
-
Meta社のMobileLLMでオンデバイスユ���スケースに向けたLLM設計が促進
Meta社の研究者のMobileLLMに対する目標は野心的だ。小型モデルの品質は搭載しているパラメータが何十億あるかに直結したものではなく、むしろ注意深いアーキテクチャ設計の賜物であることを示そうとしている。その実証として、層の深いアーキテクチャと層の浅いアーキテクチャを埋め込み共有やグループ化クエリアテンションメカニズムを組み合わせた125M、350M、600M、10Bパラメータの4つのモデルを構築し、従来の最先端モデルよりも精度を向上させた。
-
Rhymes AIがAriaを発表:開発リソースを備えたオープンソースのマルチモーダルモデル
Rhymes AIは、テキスト、画像、ビデオ、コードを効果的に処理できるオープンソースのマルチモーダルネイティブMoE(Mixture-of-Experts)モデル、Ariaを発表した。ベンチマークテストにおいて、Ariaは他のオープンモデルを凌駕し、GPT-4oやGemini-1.5などの独自モデルに対しても競争力のある性能を示した。さらに、Rhymes AIは、微調整や開発のためのモデルの重み付けやガイダンスを含むコードベースを公開している。
-
マイクロソフトと清華大学が大規模言語モデル向けのDIFF Transformerを発表
マイクロソフトAI と清華大学の研究者が、Differential Transformer (DIFF Transformer) という大規模言語モデルの性能向上を目的とした新しいアーキテクチャを発表した。同モデルでは、モデルによるコンテキスト処理の微調整や無関係な情報によるハルシネーションを最小限化することで、アテンション・メカニズムが向上している。
-
Hugging Face、AIモデル比較強化に向けOpen LLM Leaderboardをアップグレード
Hugging FaceはOpen LLM Leaderboard v2、大規模言語モデル向けの彼らのポピュラーなベンチマーキングプラットフォームのアップグレード版を最近リリースした。
-
Google社、Android StudioにAI機能Geminiを導入
Google社は、AI機能を通じた開発者の生産性向上に向けて、Android StudioでGeminiの一連のアップデートをリリースした。今回のリリースは、AIアシストを用いたコーディング、リファクタリング、ドキュメント生成、コードの分析やテスト、修正提案など、開発ライフサイクルのあらゆる段階にAIを導入することを目的としている。
-
Meta社がNotebookLlamaをリリース:オープンソースのPDFからPodcastへのツールキット
Meta社は、PDF文書をポッドキャストに変換するために設計されたオープンソースのツールキットである、NotebookLlamaをリリースした。これにより、開発者は構造化されたアクセス可能な PDF からオーディオへのワークフローを利用できるようになる。GoogleのNotebookLMのオープンソースの代替として、NotebookLlamaは、大規模言語モデル(LLM)やオーディオ処理の経験がなくても、PDF文書を音声コンテンツに変換する4段階のプロセスを通してユーザーをガイドする。このツールキットは、ユーザーがLLMやTTSモデルを試して、会話や音声に対応したコンテンツを作成するための実用的な方法を提供する。
-
RAG(Retrieval-Augmented Generation)を活用したCopilotが、Uberに13,000時間のエンジニアリング時間を節約
Uberは最近���オンコールサポートエンジニアの効率を改善するために設計されたAIを搭載したオンコールコパイロット、Genieを構築した方法を詳述した。GenieはRetrieval-Augmented Generation(RAG)を活用して正確なリアルタイム応答を提供し、インシデント対応のスピードと効果を大幅に向上させる。
-
Google社、大規模言語モデル(LLM)自己修正アルゴリズムSCoReを発表
先日、Google DeepMind社の研究者が、強化学習を用いた自己修正(Self-Correction via Reinforcement Learning, 以下 SCoRe)に関する論文を発表した。このSCoReとは、数学やコーディングの問題を解く際の大規模言語モデルによる自己修正能力の向上を図る技術である。SCoReで微調整されたモデルは、ベースラインモデルと比較で、いくつかのベンチマークの性能が向上した。
-
LLMを精製し、そのパフォーマンスを超える:spaCyの創設者がInfoQ DevSummit Munichで語る
InfoQ Dev Summit Munichの第1回目のプレゼンテーションにおいて、Ines Montani氏は、今年の初めにQCon Londonで行ったプレゼンテーションに加え、実際のアプリケーションで最新の最先端モデルを使用し、その知識をより小型で高速なコンポーネントに抽出し、社内で実行・維持できるようにするための実践的なソリューションを聴衆に提供した。