InfoQ ホームページ 大規模言語モデル に関するすべてのコンテンツ
-
QCon London 2025 Trainingでマイクロサービス、LLM、チームトポロジーにディープダイブする
19回目を迎えるQCon London 2025は、3日間のテクニカルセッション(4月7日~9日)だけでなく、それ以上のものを提供する。参加者は、シニア開発者、アーキテクト、チームリーダーのための実践的で詳細な学習体験を提供するように設計された2日間のオプショナルトレーニングデイ(4月10日〜11日)を受講できる。これらのセッションは、重要なソフトウェア開発トピックを深く掘り下げ、上級実践者の指導のもとでスキルを磨く絶好の機会だ。
-
DeepSeekがDeepSeek-V3をオープンソース化、671BパラメータのMixture of Experts LLM
DeepSeekは671Bパラメータを含むMixture of Experts (MoE) LLM、DeepSeek-V3をオープンソース化した。2.788M GPU時間を使って14.8Tトークンで事前学習され、MMLU、MMLU-Pro、GPQAを含む様々なLLMベンチマークで他のオープンソースモデルを上回る性能を示している。
-
Google、実験的なAI推論モデルをリリース
GoogleはAI Studioプラットフォームで利用可能なAI推論モデル Gemini 2.0 Flash Thinking Experimentalを発表した。この実験的なモデルは、複雑な問題を推論することでプログラミング、数学、物理学などのマルチモーダルタスクを処理するために設計されており、その思考過程を説明することができる。これはGemini 2.0 Flashモデルを基に構築されており、OpenAIのo1を含む類似モデルと整合している。
-
HuatuoGPT-o1: AIによる複雑な医療推論の進展
香港中文大学深圳校と深圳ビッグデータ研究所の研究者は、複雑な医療シナリオにおける推論を改善するために設計された医療用大規模言語モデル(LLM) HuatuoGPT-o1を発表した。このモデルは新しい2段階の訓練プロセスを使用して開発され、医療専門家が使用する診断アプローチに似た段階的な分析を通じて応答をリファインすることを目指している。
-
EuroLLM-9Bは、欧州言語のための最先端のLLMサポート向上を目指している
EuroLLM-9Bはヨーロッパで構築されたオープンソースの大規模言語モデルで、EUの全公用言と11の非公用語(商業的に重要ではあるが)を含むヨーロッパ言語向けに調整されている。開発チームによると、その性能は、このサイズのヨーロッパ製LLMの中で最高のものだという。
-
NVIDIA NemotronモデルがAIエージェント開発の加速を目指す
NVIDIAはカスタマーサポート、不正検知、製品サプライチェーンの最適化などのAIエージェントによるワークフローに特に重点を置いたLlama Nemotron大規模言語モデル(LLM)およびCosmos Nemotronビジョン言語モデル(VLM)を発表した。Nemotronファミリーのモデルは多様なシステム要件に適合しやすくするため、Nano、Super、Ultraの3つのサイズで提供される。
-
Googleが視覚言語モデルファミリーPaliGemma 2をリリース
Google DeepMindは視覚言語モデル(VLM)ファミリー PaliGemma 2をリリースした。PaliGemma 2は3つの異なるサイズと3つの入力画像解像度が利用可能で、複数の視覚言語ベンチマークで最先端の性能を達成している。
-
SlackがAIを活用したハイブリッドアプローチでEnzymeからReactテストライブラリに移行した方法
EnzymeはReact 18をサポートしていないため、既存の単体テストは使用できず、それらが提供する基礎的な信頼性を危険にさらしていた、とSergii Gorbachov氏はQCon San Franciscoで述べた。彼は、テストカバレッジの継続性を確保するために、SlackがすべてのEnzymeテストをReact Testing Library(RTL)に移行した方法を示した。
-
NVIDIAが初のパーソナルAIコンピューター、Arm搭載Project Digitsを発表
200Bパラメータ・モデルを実行可能なNvidia Project Digits は新しいNvidia GB10 Grace Blackwell Superchipを搭載し、AIモデルのファインチューニングと実行を開発者がローカルマシンでできるようにする。3,000ドルからスタートするProject DigitsはAI研究者、データサイエンティスト、学生をターゲットとしており、デスクトップシステムを使ってモデルを作成し、クラウドやデータセンターのインフラストラクチャにデプロイすることを可能にする。
-
LLaMA-Mesh: 3Dメッシュ生成と言語モデルの統合におけるNVIDIAのブレークスルー
NVIDIA研究者はLLaMA-Mesh、大規模言語モデル(LLM)を拡張し、統一されたテキストベース・フレームワークで3Dメッシュデータの生成と解釈を行う画期的なアプローチを発表した。LLaMA-Meshは3Dメッシュをプレーンテキストとしてトークン化し、空間情報とテキスト情報のシームレスな統合を可能にする。
-
Hugging Face Smolagents:LLMを搭載したエージェントを構築するためのシンプルなライブラリ
Smolagentsは、大規模言語モデル(LLM)を活用したエージェントを構築するためにHugging Faceで作成されたライブラリである。Hugging Faces社によると、この新しいライブラリはシンプルで特定のLLMにとらわれないことを目指しているという。セキュアな「コードでアクションを記述するエージェント」をサポートし、Hugging Face Hubと統合されている。
-
"DeepThought-8B":LLaMA-3.1 8Bを活用してコンパクトな推論モデルを作成
DeepThought-8Bは、LLaMA-3.1 8B上に構築された小型の「推論」モデルであり、OpenAI o1と同様に、意思決定プロセスを段階的に実行できるが、はるかに小型のパッケージである。
-
InstaDeep社、ゲノムAIモデル「Nucleotide Transformer」をオープンソース化
InstaDeep社とNVIDIA社の研究者は、ゲノムデータ用の基礎モデル群である、"Nucleotide Transformers"(NT)をオープンソース化した。最大のNTモデルは25億のパラメーターを持ち、850種の遺伝子配列���ータで学習された。いくつかのゲノムベンチマークにおいて、他の最先端のゲノム基盤モデルを凌駕している。
-
Google DeepMindがGemini 2.0を発表:AIパフォーマンスとマルチモーダル統合における飛躍
Google DeepMindは、前モデルのGemini 1.5 Proの2倍の処理速度を実現するAIモデルGemini 2.0を発表した。このモデルはテキスト、画像、その他の入力を組み合わせて高度な推論を行う複雑なマルチモーダルタスクをサポートしている。JAX/XLAフレームワーク上に構築されたGemini 2.0は大規模に最適化され、複雑なトピックを探索するためのDeep Researchなどの新機能を含んでいる。現在、開発者と信頼できるテスターに提供されており、近くGeminiやSearchのようなGoogle製品に統合される予定である。
-
Qwen開発チーム、QwQ-32B-Previewを発表:AIによる推論と分析が進化
LLM(大規模言語モデル)であるQwenの開発チームは、AIの推論と分析能力を向上させるために設計された実験的研究モデル、QwQ-32B-Previewを発表した。32,768トークンのコンテキストと最先端の変換アーキテクチャを特徴とするこのモデルは、GPQAやMATH-500のような数学、プログラミング、科学ベンチマークに優れている。Hugging Faceで利用可能で、その機能を探求し、開発に貢献をしてくれる研究者たちを募っている。