InfoQ ホームページ 大規模言語モデル に関するすべてのコンテンツ
-
PayPal社、Cosmos.AI MLOpsプラットフォームにLLMを利用した生成AIサポートを追加
PayPal社はMLOpsプラットフォームCosmos.AIを拡張し、大規模言語モデル(LLM)を使用したジェネレーティブAIアプリケーションの開発をサポートする。同社は、ベンダー、オープンソース、自己調整LLMへのサポートを取り入れ、検索拡張生成(RAG)、セマンティックキャッシュ、プロンプト管理、オーケストレーション、AIアプリケーションのホスティングに関する機能をリリースした。
-
FirebaseのVertex AI、Gemini搭載モバイルアプリの作成を簡素化する狙い
現在ベータ版として提供されている Vertex AI SDK for Firebaseは、単純なチャットモデルやテキストプロンプトを超えたアプリの作成を可能にする。Googleはこの度、開発者がアプリに組み込むために必要なステップを支援するコラボを公開した。
-
大学の研究者がLLMにおける思考連鎖推論の分析を発表した
プリンストン大学とイェール大学の研究者が、LLMにおけるChain-of-Thought(CoT)推論のケーススタディを発表した。このケーススタディでは、暗記と真の推論の両方の証拠が示された。また、CoTは、プロンプトで与えられた例が正しくない場合でも機能することがわかった。
-
Meta社のリアルタイム音声翻訳AIシステムに向けたResearch SuperCluster
Meta社のエンジニアリング部門の最近の記事から、同社がリアルタイム音声翻訳、言語処理、コンピューター・ビジョン、拡張現実 (AR)の進歩に使用されるResearch SuperCluster (RSC)インフラをどのように構築しているかが明らかになった。
-
中国科学院大学オープンソース・マルチモーダルLLM LLaMA-Omni
中国科学院大学(UCAS)の研究者が最近、音声データとテキストデータの両方で動作するLLM、LLaMA-Omniをオープンソース化した。LLaMA-OmniはMetaのLlama-3.1-8B-InstructLLMをベースにしており、類似のベースラインモデルを凌ぐ性能を持ちながら、少ない学習データと計算量で動作する。
-
Anthropic、AIデータハンドリング強化のためのコンテキスト検索を発表
Anthropicは、AIシステムと広範な知識ベースとの相互作用における重要な進歩であるコンテキスト検索を発表した。この技術は、埋め込みや索引付けの前にテキストチャンクをコンテキスト情報を付加することで、検索拡張生成(RAG)システムにおけるコンテキスト損失の課題に対処する。
-
OpenAIがGPT-4oサポートとAPI拡張を含む.NETライブラリの安定版をリリース
6月のベータ版に続き、OpenAIが、公式.NETライブラリの安定版をリリースした。NuGetパッケージとして利用可能で、GPT-4oやGPT-4o miniのような最新モデルと、OpenAI REST APIの全機能をサポートしている。このリリースには同期および非同期APIの両方、ストリーミングチャット補完機能、そしてAPI一貫性向上のための重要な互換性のない変更が含まれている。開発者はライブラリを拡張し、.NET Standard 2.0をサポートするすべての.NETプラットフォーム上で使用できる。
-
AIでKubernetes管理を簡素化するIntuit Engineeringのアプローチ
Intuit社は最近、Generative AI(GenAI)を使用してKubernetesクラスタの監視とデバッグの複雑さを管理した方法について語った。GenAIの実験は、検出、デバッグ、修復のプロセスを合理化するために行われた。
-
マイクロソフト、Promptyをリリース:LLMを.NET開発に統合する新しいVS Code拡張機能
Microsoftは、GPT-4oのような大規模言語モデル(LLM)を.NET開発ワークフローに直接統合するために設計された新しいVisual Studio Code拡張機能「Prompty」をリリースした。この無料ツールは、アプリケーションにAI駆動機能を追加するプロセスを簡素化することを目的としている。公式リリースポストには、Promptyが実際のシナリオでどのように使用できるかを示す実用的な例が含まれている。
-
HelixML、Helix 1.0のリリースを発表
HelixMLは、生成AIのためのHelixプラットフォームがバージョン1.0で製品化準備が整ったことを発表した。このプラットフォームは「プライベートGenAIスタック」と称され、様々な大規模言語モデル(LLM)に接続できるインターフェース層とアプリケーションを提供する。このプラットフォームは、ラップ��ップ1台からアプリケーションのプロトタイプを作成でき、すべてのコンポーネントがバージョン管理されているため、有効性が証明されたアプリケーションのその後の展開や拡張が容易である。また、LLMの非決定論的な領域では、テストの代わりとして(eval)が重視されている。
-
XプラットフォームでGrok-2ベータ版がリリースされた
Grok-2言語モデルがXプラットフォーム上でベータ版としてリリースされ、Grok-2 miniと共に発表された。LMSYSリーダーボード上で「sus-column-r」という名称でテストされたこのモデルは、Claude 3.5 Sonnetと GPT-4-ターボと比較して高いEloスコアを達成した。Grok-2 miniは、処理速度とパフォーマンスのバランスを重視して設計された軽量版で、ベータリリースの一部である。
-
Apple社、Apple Intelligenceを支えるApple Foundation Modelsを発表
Apple社は、Apple Intelligence suiteのいくつかの機能を提供する大規模言語モデル(LLM)ファミリーである新しいApple Foundation Models(AFM)の詳細を発表した。AFMには、30億パラメータのオンデバイス版と、より大きなクラウドベース版の2つのサイズがある。
-
チーム・イネーブラーとしてのLLMとエージェント
Scrum.orgは最近、COOであるEric Naiburg氏によるAI as a Scrum Team Member と題した記事を掲載した。Naiburg氏は、スクラムマスター、プロダクトオーナー、開発者にとっての生産効率の利点を説明した上で、読者にAIが「チームメンバー」としてスクラムチームに「シームレスに統合されていることを想像する」よう呼びかけた。Thoughtworks社のAIアシストソフトウェアデリバリーのグローバルリードであるBirgitta Böckeler氏も最近、「Exploring Generative AI」と題した記事を発表���、エンジニアリングシナリオにおけるLLM(大規模言語モデル)の使用を含む実験に関する洞察を共有した。同実験においては、LLM(大規模言語モデル)がソフトウェアデリバリーチームに相乗効果をもたらしている可能性がある。
-
Mistral AI、3つのオープンウエイト言語モデルをリリース
Mistral AIは3つのオープンウェイト言語モデルをリリースした:12Bパラメータの汎用LLM「Mistral NeMo」、7Bパラメータのコード生成モデル「Codestral Mamba」、数学と推論用に微調整された7Bパラメータのモデル「Mathstral」である。この3つのモデルはすべてApache 2.0ライセンスで提供されている。
-
YouTubeでの音楽レコメンドにTransformerアーキテクチャを活用
Google社は、現在の生成AIブームの火付け役であるトランスフォーマーモデルを音楽レコメンドに活用するアプローチについて説明した。現在YouTubeで実験的に適用されているこのアプローチは、音楽を聴く際のユーザーの一連の行動を理解し、そのコンテキストに基づいてユーザーの好みをより的確に予測できるレコメンダーを構築することを目的としている。