InfoQ ホームページ MachineLearning に関するすべてのコンテンツ
-
ベースラインOpenAIエンドツーエンドチャットリファレンスアーキテクチャ
Microsoftは、ベースラインOpenAIエンドツーエンドチャットリファレンスアーキテクチャを公開した。このベースラインには、コンポーネント、フロー、セキュリティに関する情報が含まれている。また、パフォーマンス、モニタリング、デプロイメントガイダンスに関する詳細もある。さらに、Microsoftはソリューションをデプロイして実行するためのリファレンス実装を用意した。
-
"Mistral Large"基盤モデル、Amazon Bedrockにて利用可能に
AWSは、先日のAWS Paris Summitにおいて、Mistral Large基盤モデルがAmazon Bedrock上で利用可能になったことを発表した。この発表は、Amazon Bedrock上でのMistral AIモデルのリリースの数日後に行われた。
-
OpenAIが新たなファインチューニングAPI機能をリリース
OpenAIは、ファインチューニングAPIの新機能リリースを発表した。この機能により、モデル開発者はファインチューニングプロセスをよりコントロールできるだけでなく、モデルのパフォーマンスをより深く理解しやすくなるだろう。
-
GoogleがAgent Builder、拡張Gemini 1.5、オープンソース追加を発表
Googleは、Google Cloud Next 2024イベントにおいて、Vertex AI Agent Builderの開始、Googleのもっとも先進的な生成AIモデルであるGemini 1.5 Proのパブリックプレビュー、Vertex AIプラットフォームへのオープンソース言語モデルの追加を発表した。
-
Airbnb、ML機能プラットフォームChrononをオープンソース化
生データをML対応フィーチャーに変換するために必要なインフラを構築するためのAirbnbのプラットフォームChrononがオープンソース化した。AirbnbのMLインフラエンジニアであるVarant Zanoyan氏が説明するように、Chrononは様々なデータソースをサポートし、低レイテンシーのストリーミングを提供することを目指している。
-
Google、ユーザーインターフェースとインフォグラフィックスを理解するAIモデル「ScreenAI」を育成
Google Researchは先日、インフォグラフィックスとユーザーインターフェースを理解するためのマルチモーダルAIモデル「ScreenAI」を開発した。ScreenAIはPaLIアーキテクチャをベースにしており、いくつもの課題において最先端の性能を記録している。
-
Meta社、24000基以上のGPUから成るAIインフラ設計を発表
Meta社はこの程、2つの新しいAIコンピューティング��クラスターの設計を発表し、それぞれ24,576基のGPUを搭載している。これらのクラスタはMeta社のGrand Tetonハードウェア・プラットフォームに基づいており、1つのクラスタは現在Meta社の次世代モデルである、"Llama 3"のトレーニングに使用されている。
-
研究者らが、LLMジェイルブレイク攻撃の防御アルゴリズム"SafeDecoding"のオープンソース化を発表
ワシントン大学、ペンシルバニア州立大学、アレンAI研究所の研究者が、大規模言語モデル(LLM)をジェイルブレイク攻撃から守る技術である、"SafeDecoding"のオープンソース化を発表した。SafeDecodingは、大きな計算オーバーヘッドを発生させることなく、ベースラインのジェイルブレイク防御を上回る性能を発揮する。
-
OpenAI、"Transformer Debugger"ツールをリリース
OpenAIは、"Transformer Debugger"(TDB)と呼ばれる新しいツールを発表した。このツールはOpenAIのSuperalignmentチームによって開発され、自動解釈可能性技術とスパースオートエンコーダを組み合わせたものである。
-
RWKVプロジェクト、LLM "Eagle 7B"をオープンソース化
RWKVプロジェクトはこの程、75.2億パラメータの大規模言語モデル(LLM)である、Eagle 7Bをオープンソース化した。Eagle 7Bは、100以上の言語の1.1兆トークンのテキストで学習され、多言語ベンチマークにおいて他の同サイズのモデルを凌駕している。
-
"Google BigQuery"、ベクトル検索を導入
Googleはこの程、BigQueryがベクトル検索をサポートするようになったと発表した。この新機能は、セマンティック検索、類似性検出、大規模言語モデル(LLM)による検索拡張生成(RAG)といったデータやAIのユースケースで必要とされるベクトル類似性検索を可能にする。
-
Anthropicが生成AIモデル"Claude 3"を発表、"Opus"モデルとその人間に近い能力へ注目集まる
Anthropicは、GPT-4などの他の業界モデルを上回る、Claude 3ファミリーを発表した。Claude 3ファミリーは3つの異なるモデルで構成されている。能力の高い順に、"Opus"、"Sonnet"、"Haiku"の3つのモデルが存在し、それぞれ知能、スピード、コストの面で多様なユーザーニーズに応えるように設計されている。
-
Google、2億パラメータのAI予測モデル"TimesFM"を発表
GoogleResearchは、時系列予測を目的とした200MパラメータのTransformerベースの基礎モデルである、TimesFMを発表した。TimesFMは約100Bのデータポイントで学習され、教師あり学習モデルと同等以上のゼロショット予測性能を持つ。
-
Google、100万トークンのコンテキスト長を持つマルチモーダル"Gemini 1.5"を発表
Gemini 1.0 Ultraの発表から1週間後、Googleは次世代モデルであるGemini 1.5の追加詳細を発表した。新しいバージョンでは、コンテキストウィンドウが拡張され、"Mixture of Experts"(MoE)アーキテクチャが採用され、AIがより高速かつ効率的になることが期待されている。新モデルには、マルチモーダル機能の拡張も含まれている。
-
Google社がBardをGeminiに改名
Google社は、同社のチャットボットBardの名称をGeminiに変更すると発表した。同社はまた、Gemini言語モデルの最大バージョンであるGemini Advancedの発表と、Gemini言語モデルと対話するための2つの新しいモバイルアプリの発表も行った。