InfoQ ホームページ MachineLearning に関するすべてのコンテンツ
-
BlockがオープンソースAIフレームワーク「コードネームGoose」を発表
BlockのオープンソースプログラムオフィスはコードネームGoose、タスクを自動化し、既存のツールとシームレスに統合するように設計されたオープンソースの非商用AIエージェントフレームワークを発表した。Gooseは、拡張機能によってカスタマイズ可能な柔軟なオンマシンAIアシスタントをユーザーに提供し、開発者やその他の専門家が生産性を向上させることを可能にする。
-
OpenAIが Microsoft Azure OpenAI Service上に新しいo3-miniモデルを提供
OpenAIは、o3-miniモデルをローンチし、現在Microsoft Azure OpenAI Serviceからアクセス可能となっている。同社によると、このモデルはAI技術の進歩を象徴しており、昨年9月にリリースされたo1-miniと比較してコスト効率が改善され、推論能力が向上している。
-
OpenAIがDeep Researchを発表:AI支援調査の前進
OpenAIはDeep Research、Web全体にわたる詳細な多段階調査を行うように設計されたChatGPT内の新しいエージェントを発表した。当初はProユーザーに提供され、PlusユーザーとTeamユーザーへのアクセス拡大を計画している。Deep Researchはオンライン情報の取得、分析、統合を行うことで時間のかかる調査を自動化する。
-
Hugging FaceとEntalpicがLeMaterialを発表:AIが材料科学を変える
EntalpicはHugging Faceと共同で、材料科学における重要な課題に取り組むオープンソースイニシアチブ、LeMaterialを立ち上げた。LeMaterialは、主要なリソースからのデータを、670万件のエントリーによる調和のとれたデータセットであるLeMat-Bulkに統合することで、材料探索を合理化し、LED、バッテリー、太陽電池などの分野における技術革新の加速を目的としている。
-
Microsoft Research AI Frontiers LabがAutoGen v0.4ライブラリを発表
Microsoft ResearchのAI Frontiers LabがAutoGen 0.4、先進的なAIエージェントシステムを構築するためのオープンソースフレームワークのバージョン、のリリースを発表した。報告によると最新バージョンはAutoGenライブラリの完全な再設計を特徴としており、コード品質、堅牢性、ユーザビリティ、エージェントワークフローのスケーラビリティの向上に焦点を当てている。このアップデートは、エージェント型人工知能の進展をドライブする強力なエコシステムの確立を目指している。
-
DeepSeekがDeepSeek-V3をオープンソース化、671BパラメータのMixture of Experts LLM
DeepSeekは671Bパラメータを含むMixture of Experts (MoE) LLM、DeepSeek-V3をオープンソース化した。2.788M GPU時間を使って14.8Tトークンで事前学習され、MMLU、MMLU-Pro、GPQAを含む様々なLLMベンチマークで他のオープンソースモデルを上回る性能を示している。
-
HuatuoGPT-o1: AIによる複雑な医療推論の進展
香港中文大学深圳校と深圳ビッグデータ研究所の研究者は、複雑な医療シナリオにおける推論を改善するために設計された医療用大規模言語モデル(LLM) HuatuoGPT-o1を発表した。このモデルは新しい2段階の訓練プロセスを使用して開発され、医療専門家が使用する診断アプローチに似た段階的な分析を通じて応答をリファインすることを目指している。
-
Predictive Scaling(予測スケーリング)でAmazon ECSを最適化
Amazon Web Services(AWS)は、機械学習(ML)アルゴリズムを採用して需要の急増を予測し、リソースの過剰プロビジョニングを最小限に抑えながらアプリケーションの可用性と応答性を確保する高度なスケーリングポリシー「Predictive Scaling for Amazon ECS」をこのほどリリースした。
-
NVIDIAが初のパーソナルAIコンピューター、Arm搭載Project Digitsを発表
200Bパラメータ・モデルを実行可能なNvidia Project Digits は新しいNvidia GB10 Grace Blackwell Superchipを搭載し、AIモデルのファインチューニングと実行を開発者がローカルマシンでできるようにする。3,000ドルからスタートするProject DigitsはAI研究者、データサイエンティスト、学生をターゲットとしており、デスクトップシステムを使ってモデルを作成し、クラウドやデータセンターのインフラストラクチャにデプロイすることを可能にする。
-
Qwen開発チーム、QwQ-32B-Previewを発表:AIによる推論と分析が進化
LLM(大規模言語モデル)であるQwenの開発チー���は、AIの推論と分析能力を向上させるために設計された実験的研究モデル、QwQ-32B-Previewを発表した。32,768トークンのコンテキストと最先端の変換アーキテクチャを特徴とするこのモデルは、GPQAやMATH-500のような数学、プログラミング、科学ベンチマークに優れている。Hugging Faceで利用可能で、その機能を探求し、開発に貢献をしてくれる研究者たちを募っている。
-
QCon San Francisco 2024のAIとMLトラック - 生成AIと実用的アプリケーションを深掘り
InfoQによる国際的なソフトウェア開発会議であるQCon San Francisco 2024では、AIとMLの急速な進歩に特化した2つのトラックが設けられており、これらの技術が現代のソフトウェア開発の中心となっていることを反映している。
-
Meta社、強化学習を用いてデータセンターの持続可能性を最適化
最近のブログ記事で、自社のエンジニアが強化学習(RL)を使って 自社のデータセンターの環境制御を最適化し、エネルギー消費と水の使用量を削減しながら、気候変動などのより 広範な課題に取り組む方法を紹介している。強化学習は、機械学習と最適制御の一分野であり、知的エージェントが報酬信号を最大化するために、変化する環境の中でどのように意思決定を行うかに焦点を当てている。
-
Amazon SageMaker JumpStartがBria AIのテキスト画像変換モデルでポートフォリオを拡大
Amazon Web Servicesは、Bria AIの最新のテキストから画像への基礎モデルをAmazon SageMaker JumpStartに統合し、エンタープライズグレードの生成AI機能を大幅に拡張した。今回の追加には、Bria 2.3、Bria 2.2 HD、Bria 2.3 Fastの3つのバリエーションが含まれ、それぞれがビジュアルコンテンツ生成における特定の企業ニーズに対応するように設計されている。
-
Rhymes AIがAriaを発表:開発リソースを備えたオープンソースのマルチモーダルモデル
Rhymes AIは、テキスト、画像、ビデオ、コードを効果的に処理できるオープンソースのマルチモーダルネイティブMoE(Mixture-of-Experts)モデル、Ariaを発表した。ベンチマークテストにおいて、Ariaは他のオープンモデルを凌駕し、GPT-4oやGemini-1.5などの独自モデルに対しても競争力のある性能を示した。さらに、Rhymes AIは、微調整や開発のためのモデルの重み付けやガイダンスを含むコードベースを公開している。
-
PyTorch 2.5リリースにて、Intel GPUをサポート
PyTorch Foundationは最近、Intel GPUのサポートを含むPyTorchバージョン2.5をリリースした。このリリースには、FlexAttention API、TorchInductor CPUバックエンドの最適化、コンパイル時間を短縮するリージョナルコンパイル機能など、いくつかのパフォーマンス強化も含まれている。全体として、このリリースには PyTorch 2.4 以降の 4095 のコミットが含まれている。