InfoQ ホームページ 大規模言語モデル に関するすべてのコンテンツ
-
GitHub Copilot拡張機能はIDEと外部サービスを統合
現在一般提供されているGitHub Copilot 拡張機能により、開発者はIDEを離れることなく自然言語を使用してドキュメント照会し、コード生成し、データ取得し、外部サービス上でアクションを実行できる。Docker、MongoDB、Sentryなど多くの企業が公開している拡張機能を利用できるほか、開発者は内部ライブラリやAPIと連携するための独自の拡張機能を作成することもできる。
-
マイクロソフトがCoRAGを発表:反復的推論によるAI検索の強化
Microsoft AIは中国人民大学と共同でRetrieval-Augmented Generation(RAG)モデルを強化するために設計された新しいAIフレームワーク、Chain-of-Retrieval Augmented Generation(CoRAG)を発表した。単一の検索ステップに依存する従来のRAGシステムとは異なり、CoRAGは反復検索と推論を可能にし、AIモデルが回答を生成する前に動的に検索結果をリファインすることを可能にする。
-
Hugging Face、新たなプロバイダー統合でサーバーレス推論オプションを拡大
Hugging Faceは、Fal、Replicate、SambaNova、Together AIの4つのサーバーレス推論プロバイダーの統合を直接モデルページにローンチした。これらのプロバイダーはJavaScriptおよびPython用Hugging FaceクライアントSDKにも統合されており、ユーザーは最小限のセットアップで様々なモデルの推論を実行できるようになっている。
-
ラテンアメリカがAIの文化的関連性を向上させるためにLatam-GPTを発表
ラテンアメリカは同地域の歴史、文化、言語的多様性をよりよく表現するために設計された言語モデル「Latam-GPT」の開発を通して、人工知能の開発を進めている。Paris AI Action Summitで発表されたこのプロジェクトは、チリの科学・技術・知識・イノベーション省(CTCI)と国立人工知能センター(Cenia)が主導し、ラテンアメリカ各地の専門家や機関の支援を受けている。
-
PerplexityがDeep Researchを発表:高度な分析のためのAI駆動ツール
PerplexityはDeep Research、金融、マーケティング、テクノロジーなど様々な分野で詳細な分析を行うために設計されたAI駆動ツールを発表した。このシステムは、複数の検索を実行し、広範な情報源を分析し、数分以内に構造化されたレポートに結果をまとめることでリサーチプロセスを自動化する。
-
JetBrainsのAIコーディングエージェントJunieがJetBrains IDEとの緊密な統合を提供
JetBrainsは新しいAIコーディングエージェントJunieをクローズドプレビューで発表した。同社によるとJunieは割り当てられたコーディングタスクを実行し、IDE内で利用可能なプロジェクトコンテキストに関する知識を活用できる。
-
OpenAIが推論モデルo3-miniをリリース、o1より高速かつ高精度
OpenAIは最新の推論LLM OpenAI o3-miniをリリースした。o3-miniはSTEM分野向けに最適化されており、科学、数学、コーディングのベンチマークで完全版o1モデルを上回る性能を発揮し、o1-miniより低レイテンシーになっている。
-
OpenAIがDeep Researchを発表:AI支援調査の前進
OpenAIはDeep Research、Web全体にわたる詳細な多段階調査を行うように設計されたChatGPT内の新しいエージェントを発表した。当初はProユーザーに提供され、PlusユーザーとTeamユーザーへのアクセス拡大を計画している。Deep Researchはオンライン情報の取得、分析、統合を行うことで時間のかかる調査を自動化する。
-
Amazon Bedrockがオープンソースフレームワーク統合を取り入れたマルチエージェントシステム(MAS)を導入
Amazon Web Servicesは、Amazon Bedrock向けにマルチエージェントコラボレーション機能をリリースし、複数のAIエージェントが複雑なタスクで協力するためのフレームワークを導入した。このシステムは専門化されたエージェントがスーパーバイザーエージェントの調整の下で協力して作業することを可能にし、分散AIシステムにおけるエージェントオーケストレーションに関する開発者の課題に対処するものである。
-
Meta社、文章全体の予測を行う言語モデル「Large Concept Model」をオープンソース化
先日、Meta社が、トークンよりも抽象度の高い作業処理用に設計された言語モデルである Large Concept Model (LCM)をオープンソース化した。従来の言語モデルと異なり、LCMは言語やモダリティに依存しない文埋め込み空間を使用しており、多言語を用いた要約タスクでは同サイズのLlama 3.1モデルを上回る性能を発揮している。
-
AWSがAmazon Q Developer エージェントに新機能(ドキュメント生成、コードレビュー、ユニットテスト)を追加実装
AWSはこのほど、 AI駆動生成アシスタント「Amazon Q Developer」の機能強化を発表し、ソフトウェア開発プロセスを効率化する新たなエージェント機能を導入した。
-
Microsoft Research AI Frontiers LabがAutoGen v0.4ライブラリを発表
Microsoft ResearchのAI Frontiers LabがAutoGen 0.4、先進的なAIエージェントシステムを構築するためのオープンソースフレームワークのバージョン、のリリースを発表した。報告によると最新バージョンはAutoGenライブラリの完全な再設計を特徴としており、コード品質、堅牢性、ユーザビリティ、エージェントワークフローのスケーラビリティの向上に焦点を当てている。このアップデートは、エージェント型人工知能の進展をドライブする強力なエコシステムの確立を目指している。
-
主要な大規模言語モデル(LLM)が、隠れた目標を追求する能力を持つことが判明
AI安全性の研究組織Apollo Researchの研究者たちは、AIエージェントが密かに誤った目標を追求し、本当の目的を隠す可能性があることを発見した。この行動はイン��コンテキスト・スキーミングとして知られ、LLMが明示的に欺瞞的な戦略を考慮し、それを実行可能と見なしているため、偶然ではないようだ。
-
DeepSeekが新たなオープンソースAIモデル、Janus Proをリリース
DeepSeekはマルチモーダルモデルJanusのアップデート版、Janus-Proをリリースした。新モデルはトレーニング戦略、データスケーリング、モデルサイズを改善し、マルチモーダル理解とテキストから画像への生成能力を向上させている。
-
Metaがスケーラビリティを向上させたByte Latent Transformer LLMをオープンソース化
Metaはトークナイザーの代わりにバイトのパッチを処理する学習済み動的スキームを使用するLLMアーキテクチャByte Latent Transformer (BLT)をオープンソース化した。これにより、BLTモデルはLlama 3モデルと同等の性能を50%少ない推論FLOPSで実現できる。