InfoQ ホームページ MachineLearning に関するすべてのコンテンツ
-
Google、2億パラメータのAI予測モデル"TimesFM"を発表
GoogleResearchは、時系列予測を目的とした200MパラメータのTransformerベースの基礎モデルである、TimesFMを発表した。TimesFMは約100Bのデータポイントで学習され、教師あり学習モデルと同等以上のゼロショット予測性能を持つ。
-
Google、100万トークンのコンテキスト長を持つマルチモーダル"Gemini 1.5"を発表
Gemini 1.0 Ultraの発表から1週間後、Googleは次世代モデルであるGemini 1.5の追加詳細を発表した。新しいバージョンでは、コンテキストウィンドウが拡張され、"Mixture of Experts"(MoE)アーキテクチャが採用され、AIがより高速かつ効率的になることが期待されている。新モデルには、マルチモーダル機能の拡張も含まれている。
-
Google社がBardをGeminiに改名
Google社は、同社のチャットボットBardの名称をGeminiに変更すると発表した。同社はまた、Gemini言語モデルの最大バージョンであるGemini Advancedの発表と、Gemini言語モデルと対話するための2つの新しいモバイルアプリの発表も行った。
-
NVIDIA、ローカルで動作するAIチャットボット「Chat with RTX」を発表
NVIDIAはChat withRTXを発表し、パーソナライズされたチャットボット体験をユーザー自身が構築できるようになった。多くのクラウドベースのソリューションとは異なり、Chat with RTXは完全にローカルのWindows PCまたはワークステーション上で動作し、データのプライバシーとコントロールを高めている。
-
Stability AIのオープンソース動画生成モデル Stable Video Diffusion
Stability AI社は、動画生成AIモデルStable Video Diffusion(SVD)のコードとモデルウェイトを公開した。コンテキストとして入力画像が与えられると、このモデルは576x1024ピクセルの解像度で25のビデオフレームを生成できる。
-
Stability AI社が16億パラメータの言語モデル "Stable LM 2"をリリース
Stability AI社は、1.6Bパラメータの言語モデルStable LM 2用に、訓練済みのモデル重みを2セットリリースした。Stable LM 2は、7言語の2兆トークンから成るテキストデータで学習を行ったものであり、一般的なラップトップコンピュータで実行できる。
-
Mistral AIのオープンソースモデル"Mixtral 8x7B"、GPT-3.5を上回る
Mistral AIは先日、スパース混合エキスパート(SMoE)大規模言語モデル(LLM)であるMixtral 8x7Bをリリースした。このモデルは総パラメータ46.7Bを含むが、その3分の1のサイズのモデルと同じスピードとコストで推論を処理できる。いくつかのLLMベンチマークでは、Llama 2 70BとGPT-3.5の両方を上回った。
-
OpenAIのカスタムGPTが機密情報を漏洩する可能性
OpenAIが新しいGPTストアを展開し始めたことが報告された後、それらが構築されたデータの一部が容易に晒されてしまうことも発見された。複数のグループが、このシステムが機密情報を漏洩する可能性があることを指摘し始めた。
-
データ処理ワークロードと柔軟なストレージを実現するAmazon ECSとAmazon EBSの統合
AWSは最近、Amazon Elastic Container Service (AmazonECS) がAmazon Elastic Block Store (AmazonEBS) との統合をサポートすることを発表した。
-
OpenAIがGPTプロンプトエンジニアリングガイドを発表
先日、OpenAIはプロンプトエンジニアリングのガイドを発表した。このガイドでは、GPTモデルからより良い応答を引き出すための6つの戦略が掲載されており、特に最新バージョンであるGPT-4の例に焦点を当てられている。
-
Cloudflareの、MLとAIへの旅:MLOpsプラットフォームとベストプラクティス
Cloudflareのブログでは、MLOpsプラットフォームと人工知能(AI)デプロイメントを大規模に実行するためのベストプラクティスについて述べられている。WAF攻撃スコアリング、ボット管理、グローバル脅威識別を含むCloudflareの製品は、常に進化する機械学習(ML)モデルに依存している。これらのモデルは、顧客の保護を強化し、サポートサービスを増強する上で極めて重要である。同社は、MLをネットワーク全体に提供することで比類のない規模を達成しており、堅牢なMLトレーニング手法の重要性を強調している。
-
Microsoft、小型言語モデルPhi-2を発表
Microsoft Researchは、27億パラメータのTransformerベースの言語モデルであるPhi-2を発表した。Phi-2はGPT-3.5によって生成された1.4Tトークンの合成データでトレーニングされ、様々なベンチマークでより大規模なモデルを上回る性能を発揮する。
-
Google、新しいマルチモーダルAIモデル「Gemini」を発表
12月6日、Alphabetは次世代AIモデル「Gemini」の第一段階を発表した。Geminiは、CEOのSundar Pichai氏とGoogleDeepmindによって統括・推進された。
-
MicrosoftのOrca 2 LLM、性能面で10倍大きいモデルを凌駕
Microsoft Researchは、Llama 2の微調整版であるOrca 2 LLMを発表した。Orca 2 LLMは、10倍のパラメータを含むモデルと同等かそれ以上の性能を発揮できる。この性能を達成するために、合成トレーニングデータセットとプロンプト消去と呼ばれる新しい技術を使用している。
-
Meta、生成AIモデル「Emu Video」と「Emu Edit」を発表
Meta AI Researchは、2つの新しい生成AIモデルを発表した。Emu Videoは、テキストプロンプトにて短い動画の生成ができ、Emu Editは、テキストベースの指示を受けて画像編集ができる。両モデルとも、Meta社のEmu基礎モデルをベースにしており、いくつかのベンチマークで最先端の性能を示している。