InfoQ ホームページ MachineLearning に関するすべてのコンテンツ
-
Qwen開発チーム、QwQ-32B-Previewを発表:AIによる推論と分析が進化
LLM(大規模言語モデル)であるQwenの開発チームは、AIの推論と分析能力を向上させるために設計された実験的研究モデル、QwQ-32B-Previewを発表した。32,768トークンのコンテキストと最先端の変換アーキテクチャを特徴とするこのモデルは、GPQAやMATH-500のような数学、プログラミング、科学ベンチマークに優れている。Hugging Faceで利用可能で、その機能を探求し、開発に貢献をしてくれる研究者たちを募っている。
-
QCon San Francisco 2024のAIとMLトラック - 生成AIと実用的アプリケーションを深掘り
InfoQによる国際的なソフトウェア開発会議であるQCon San Francisco 2024では、AIとMLの急速な進歩に特化した2つのトラックが設けられており、これらの技術が現代のソフトウェア開発の中心となっていることを反映している。
-
Meta社、強化学習を用いてデータセンターの持続可能性を最適化
最近のブログ記事で、自社のエンジニアが強化学習(RL)を使って 自社のデータセンターの環境制御を最適化し、エネルギー消費と水の使用量を削減しながら、気候変動などのより 広範な課題に取り組む方法を紹介している。強化学習は、機械学習と最適制御の一分野であり、知的エージェントが報酬信号を最大化するために、変化する環境の中でどのように意思決定を行うかに焦点を当てている。
-
Amazon SageMaker JumpStartがBria AIのテキスト画像変換モデルでポートフォリオを拡大
Amazon Web Servicesは、Bria AIの最新のテキストから画像への基礎モデルをAmazon SageMaker JumpStartに統合し、エンタープライズグレードの生成AI機能を大幅に拡張した。今回の追加には、Bria 2.3、Bria 2.2 HD、Bria 2.3 Fastの3つのバリエーションが含まれ、それぞれがビジュアルコンテンツ生成における特定の企業ニーズに対応するように設計されている。
-
Rhymes AIがAriaを発表:開発リソースを備えたオープンソースのマルチモーダルモデル
Rhymes AIは、テキスト、画像、ビデオ、コードを効果的に処理できるオープンソースのマルチモーダルネイティブMoE(Mixture-of-Experts)モデル、Ariaを発表した。ベンチマークテストにおいて、Ariaは他のオープンモデルを凌駕し、GPT-4oやGemini-1.5などの独自モデルに対しても競争力のある性能を示した。さらに、Rhymes AIは、微調整や開発のためのモデルの重み付けやガイダンスを含むコードベースを公開している。
-
PyTorch 2.5リリースにて、Intel GPUをサポート
PyTorch Foundationは最近、Intel GPUのサポートを含むPyTorchバージョン2.5をリリースした。このリリースには、FlexAttention API、TorchInductor CPUバックエンドの最適化、コンパイル時間を短縮するリージョナルコンパイル機能など、いくつかのパフォーマンス強化も含まれている。全体として、このリリースには PyTorch 2.4 以降の 4095 のコミットが含まれている。
-
Hugging Face、AIモデル比較強化に向けOpen LLM Leaderboardをアップグレード
Hugging FaceはOpen LLM Leaderboard v2、大規模言語モデル向けの彼らのポピュラーなベンチマーキングプラットフォームのアップグレード版を最近リリースした。
-
Meta社がNotebookLlamaをリリース:オープンソースのPDFからPodcastへのツールキット
Meta社は、PDF文書をポッドキャストに変換するために設計されたオープンソースのツールキットである、NotebookLlamaをリリースした。これにより、開発者は構造化されたアクセス可能な PDF からオーディオへのワークフローを利用できるようになる。GoogleのNotebookLMのオープンソースの代替として、NotebookLlamaは、大規模言語モデル(LLM)やオーディオ処理の経験がなくても、PDF文書を音声コンテンツに変換する4段階のプロセスを通してユーザーをガイドする。このツールキットは、ユーザーがLLMやTTSモデルを試して、会話や音声に対応したコンテンツを作成するための実用的な方法を提供する。
-
LLMを精製し、そのパフォーマンスを超える:spaCyの創設者がInfoQ DevSummit Munichで語る
InfoQ Dev Summit Munichの第1回目のプレゼンテーションにおいて、Ines Montani氏は、今年の初めにQCon Londonで行ったプレゼンテーションに加え、実際のアプリケーションで最新の最先端モデルを使用し、その知識をより小型で高速なコンポーネントに抽出し、社内で実行・維持できるようにするための実践的なソリューションを聴衆に提供した。
-
Meta社 AIが思考の選好最適化を導入、AIモデルが反応する前に考えることを可能に
Meta FAIR、カリフォルニア大学バークレー校、ニューヨーク大学の研究者たちが、思考の選好最適化(TPO)を発表した。最終的な解答のみに注目する従来のモデルとは異なり、このアプローチでは、LLMがより正確で首尾一貫した解答を生成するために、内部的な思考プロセスを生成し、洗練させることができる。
-
PyTorch カンファレンス 2024:PyTorch 2.4/2.5(開発中)、そしてLlama 3.1
2024年9月18日と19日、Linux Foundationはサンフランシスコのフォート・メイソン周辺でPyTorch Conference 2024を開催した。このカンファレンスでは、PyTorch 2.4とLlama 3.1の最新の機能と、PyTorch 2.5での今後の変更点が紹介された。PyTorch Foundationのエグゼクティブディレクターであり、Linux FoundationのAI担当GMでもあるMatt White氏は、初日のカンファレンスの冒頭で、責任ある生成AIの発展におけるオープンソース・イニシアチブの重要性を強調した。
-
PayPal社、Cosmos.AI MLOpsプラットフォームにLLMを利用した生成AIサポートを追加
PayPal社はMLOpsプラットフォームCosmos.AIを拡張し、大規模言語モデル(LLM)を使用したジェネレーティブAIアプリケーションの開発をサポートする。同社は、ベンダー、オープンソース、自己調整LLMへのサポートを取り入れ、検索拡張生成(RAG)、セマンティックキャッシュ、プロンプト管理、オーケストレーション、AIアプリケーションのホスティングに関する機能をリリースした。
-
Googleが声を復元する音声転送AIを開発
Google Researchチームが、特定の人物の声でテキスト音声変換(TTS)をカスタマイズできるゼロショット音声変換(VT)モデルを開発した。これにより、パーキンソン病やALSなどで声を失った話者が、TTSデバイスを使って元の声を再現できるようになる。このモデルは言語を跨いでも機能する。
-
OpenAIがGPT-4oサポートとAPI拡張を含む.NETライブラリの安定版をリリース
6月のベータ版に続き、OpenAIが、公式.NETライブラリの安定版をリリースした。NuGetパッケージとして利用可能で、GPT-4oやGPT-4o miniのような最新モデルと、OpenAI REST APIの全機能をサポートしている。このリリースには同期および非同期APIの両方、ストリーミングチャット補完機能、そしてAPI一貫性向上のための重要な互換性のない変更が含まれている。開発者はライブラリを拡張し、.NET Standard 2.0をサポートするすべての.NETプラットフォーム上で使用できる。
-
AWS、NVIDIA H100 Tensor Core GPUを搭載したEC2 P5eインスタンスの一般提供を発表
Amazon Web Services(AWS)は、AI、機械学習、ハイパフォーマンス・コンピューティング(HPC)アプリケーション向けのコンピューティング・インフラを強化するため、NVIDIA H100 Tensor Core GPUを搭載したAmazon EC2 P5eインスタンスを正式にリリースした。