InfoQ ホームページ MachineLearning に関するすべてのコンテンツ
-
Google、ゲームシミュレーションAI「GameNGen」を発表
Googleの研究チームはこのほど、ビデオゲーム「Doom」をシミュレートできる生成AIモデル「GameNGen」に関する論文を発表した。GameNGenは、毎秒20フレーム(FPS)でゲームをシミュレートでき、人間による評価では、実際のゲームよりも好まれる頻度がわずかに低かった。
-
YouTubeでの音楽レコメンドにTransformerアーキテクチャを活用
Google社は、現在の生成AIブームの火付け役であるトランスフォーマーモデルを音楽レコメンドに活用するアプローチについて説明した。現在YouTubeで実験的に適用されているこのアプローチは、音楽を聴く際のユーザーの一連の行動を理解し、そのコンテキストに基づいてユーザーの好みをより的確に予測できるレコメンダーを構築することを目的としている。
-
大学の研究者らが新しいタイプの解釈可能なニューラルネットワークを構築
マサチューセッツ工科大学、カリフォルニア工科大学、ノースイースタン大学の研究者が、新しいタイプのニューラルネットワークを作成した、Kolmogorov–Arnold Networks(KAN)である。KANモデルは、物理モデリング・タスクにおいて、より大きなパーセプトロン・ベースのモデルを凌ぐ性能を示し、より解釈しやすい可視化を提供する。
-
Meta社、これまでで最大のオープンソースモデルとなるLlama 3.1 405Bをリリース
Meta社は最近、最新の言語モデルLlama 3.1 405Bを発表した。このAIモデルは、8Bと70Bバージョンも含む新しいLlamaモデルの中で最大のものである。4,050億のパラメータ、15兆のトークン、16,000のGPUを持つLlama 3.1 405Bは、様々な印象的な機能を提供する。
-
Meta社がテールユーティライゼーションの向上によりAI推論を最適化
Meta社(旧Facebook社)は、テールユーティライゼーションの最適化に注力することで、機械学習モデル提供インフラの効率性と信頼性が大幅に改善されたことを報告した。
-
ペンシルバニア大学の研究者がプロセッサ不要の学習回路を開発
ペンシルバニア大学の研究者らが、非線形回帰などのタスクを学習できるニューラルネットワークに似た電気回路を設計した。この回路は低電力レベルで動作し、コンピューターなしで学習できる。
-
Amazon SageMakerが実験追跡を強化するマネージドMLflow機能を提供開始
AWSは、Amazon SageMakerにおけるMLflow機能の一般提供を発表した。MLflowは、ML実験の管理によく使われるオープンソースのツールである。ユーザーは、MLflow UIで実験全体のモデルパフォーマンス、パラメータ、メトリクスを比較し、MLflow Model Registryでベストモデルを追跡し、SageMakerモデルとして自動的に登録し、登録されたモデルをSageMakerエンドポイントにデプロイ可能になった。
-
AWSがSageMaker StudioにAmazon Q Developerを導入し、MLワークフローを効率化
AWSは、Amazon SageMaker Studioに新機能としてAmazon Q Developerの追加を発表した。この生成AIアシスタントは、SageMakerのJupyterLabエクスペリエンスにネイティブに組み込まれており、各タスクに最適なツールの推奨、ステップバイステップのガイダンス、コード生成、トラブルシューティング支援を提供する。
-
AWS、生成AIアプリケーション構築のためのAmazon Bedrock Studioを発表
AWSはこのほど、開発者が共同で生成AIアプリケーションを構築するためのウェブインターフェース「Amazon Bedrock Studio」を発表した。現在公開プレビュー中のこのラピッドプロトタイピング環境は、複数の基礎モデル、知識ベース、エージェント、ガードレールへのアクセスを提供する。
-
スタンフォード大学による、"2024 AI Index Report"公開:AI規制の成長と生成AI投資
スタンフォード大学 の人間中心人工知能研究所(HAI)は、2024年AIインデックス年次報告書を発表した。同レポートは、2022年以降の生成AI投資の8倍増など、AIのトップトレンドを明らかにしている。
-
Meta社、効率的な長配列モデリングのためのMEGALODON LLMをオープンソース化
先日、Meta社、南カリフォルニア大学、カーネギーメロン大学、カリフォルニア大学サンディエゴ校の研究者が、無制限の文脈長を持つ大規模言語モデル(LLM)であるMEGALODONのオープンソース化を発表した。MEGALODONは線形複雑度を持ち、様々なベンチマークにおいて同サイズのLlama 2モデルを凌駕している。
-
Meta社のChameleon AIモデルは、画像・テキスト混合タスクでGPT-4を上回るパフォーマンスを発揮する
Meta社のAI基盤研究(FAIR)チームはこのほど、テキストと画像が混在したコンテンツを理解・生成できる混合モーダルAIモデル「Chameleon」を発表した。人間の審査員によって評価された実験では、Chameleonの生成出力はGPT-4よりも51.6%、Gemini Proよりも60.4%で好まれた。
-
AIとソフトウェア開発:InfoQイベントでのセッションプレビュー
AIはソフトウェア開発の形を変えつつある。InfoQが今後開催するイベントでは、シニア・ソフトウェア開発者が、この変革的テクノロジーに関する実践的なアプリケーションと倫理的な考察を共有する。以下はそのプレビューである。
-
OpenAI、動作のファインチューニングのためのGPTモデル仕様を公開
OpenAIは最近、GPTモデルの動作に関するルールと目的を記述した文書、Model Specを公開した。この仕様書は、データ・ラベラーやAI研究者がモデルをファインチューニングするためのデータを作成する際に使用することを目的としている。
-
ワシントン大学のAIを搭載したヘッドフォンで、群衆の中の一人の声を聞き取ることが容易に
"ターゲット・スピーチ・ヒアリング "は、ワシントン大学で開発された新しいディープラーニング・アルゴリズムで、ユーザーが話者を"登録"し、その声を取り巻く環境ノイズをすべてキャンセルする。