InfoQ ホームページ AIと機械学習、データエンジニアリング に関するすべてのコンテンツ
-
OCIデータベース:OracleがPostgreSQLを採用
Oracleはこのほど、PostgreSQLバージョン14.9を搭載したOCI Databaseの一般提供を発表した。Oracle CloudでPostgreSQL互換のマネージドサービスが利用できるようになったことで、すべてのクラウドプロバイダーでPostgreSQLの利用が可能となった。
-
AWS re:Invent 2023の総括: Amazon Q、質素なアーキテクチャ、データベースのアップグレード
第12回re:Inventがラスベガスで終了した。予想通り、人工知能は今回のカンファレンスの重要なトピックであり、Amazon Bedrockと、新しいタイプの生成型AIアシスタントであるAmazon Qが、Adam Selipsky氏の基調講演の主な焦点となった。
-
Meta、生成AIモデル「Emu Video」と「Emu Edit」を発表
Meta AI Researchは、2つの新しい生成AIモデルを発表した。Emu Videoは、テキストプロンプトにて短い動画の生成ができ、Emu Editは、テキストベースの指示を受けて画像編集ができる。両モデルとも、Meta社のEmu基礎モデルをベースにしており、いくつかのベンチマークで最先端の性能を示している。
-
MySQL 8.2が透過的な読み取り/書き込み分割機能を導入
オラクル社は先日、読み取り/書き込み分割機能をサポートをしたMySQL 8.2のリリースを発表した。この待望の機能は最新のイノベーションリリースで導入され、データベースの性能と拡張性の最適化に役立つ。
-
xAI、大規模言語モデル"Grok"を発表
イーロン・マスク氏が設立したAI企業xAIはこの頃、大規模言語モデルGrokを発表した。GrokはXプラットフォームを通じて世界の現在の知識にアクセスでき、いくつかのベンチマークでGPT-3.5を含む同規模の他の大規模言語モデル(LLM)を凌駕している。
-
Git for Data、バージョン管理データベース Dolt が PostgreSQL 仕様になる
DoltgreSQLは、バージョン管理データベースDoltの上に構築され、PostgresデータベースのスキーマとデータにGitのようなログ、差分、ブランチ、マージ機能を提供する。
-
AWS、AIを活用した新しいアシスタント「Amazon Q」を発表
AWSは、プロフェッショナルに向けて設計された新しい生成AIを搭載したアシスタント「Amazon Q」を発表した。このアシスタントは企業の要件に合わせて設定可能で、コード、企業システム、データリポジトリに存在する情報を活用することで、会話、問題解決、コンテンツ生成、アクションに移すことを支援する。
-
AI研究者、間違いからの学習を模倣することでLLMベースの推論を改善する
マイクロソフト、北京大学、西安交通大学の研究者は、人間が自分の失敗から学ぶ方法を再現することによって、大規模言語モデル(LLM)の数学問題を解く能力を向上させる技術を開発したと発表した。
-
Spotify、最近傍検索ライブラリVoyagerをオープンソース化
Spotify Engineeringは最近、近似最近傍(ANN)検索ライブラリであるVoyagerをオープンソース化した。VoyagerはHNSW(hierarchical navigable small worlds)アルゴリズムに基づいており、Spotifyの以前のANNライブラリAnnoyよりも10倍高速である。
-
AWSがAmazon SageMaker JumpStartに新しいコード生成モデルを追加
AWSは最近、Amazon SageMaker JumpStartで2つの新しい基礎モデルを利用可能にすることを発表した。Code LlamaとMistral 7B だ。これらのモデルはワンクリックでデプロイでき、AWSユーザーにコード生成タスク用のプライベート推論エンドポイントを提供する。
-
OpenAIは、ChatGPTのノーコード、カスタムバージョンを作成できるGPTを発表した。
先日のOpenAI開発者会議で、OpenAIは>GPT、つまり特定のタスクのために作成されたChatGPTのカスタムバージョンを展開すると発表した。開発者はGPTをChatGPTストアで共有し、収益化できる。
-
Timescale社、サーバーレスデータベースに代わるDynamic PostgreSQLを発表
Timescaleは最近、あらかじめ定義されたvCPUの範囲内でデータベース容量を拡張する新しいクラウド管理オプション、Dynamic PostgreSQLを発表した。「ベースを買ってピークを借りる」と宣伝されているこの新しいオプションは、負荷に応じて容量をスケールし、サーバーレスオプションの予測不可能性と変動性に対処しようとしている。
-
スタックオーバーフローが生成AIの向けのOverflowAIイニシアチブを発表
Stack Overflowは、同社のパブリック・プラットフォームであるStack Overflow for TeamsにジェネレーティブAIを統合するためのロードマップと、開発者が集中力を高めて作業を進める場所に、コミュニティから5800万件の質問と回答の膨大な知識をもたらすIDE統合のような、まったく新しい製品分野を発表した。Stack Overflowは、OverflowAIの傘下にこれらすべての作業を置いている。
-
Google、AIのファインチューニング方法であるDistilling Step-by-Stepをオープンソース化
ワシントン大学とGoogle Researchのチームは先日、より小さな言語モデルのファインチューニングを行う手法であるDistilling Step-by-Stepをオープンソース化した。Distilling Step-by-Stepは、標準的なファインチューニングよりも少ないトレーニングデータで、700倍のパラメータを持つ数発のプロンプト大規模言語モデル(LLM)を凌駕する小さなモデルを生成できる。
-
Meta社のオープンソースコード世代 LLM Code Llama
Meta社は最近、コード生成LLMであるCode Llamaをオープンソース化した。これはLlama 2の基礎モデルに基づいており、同じコミュニティ・ライセンスが適用されている。Code Llamaは500Bトークンのコードで微調整され、34Bパラメータまでの3つのモデルサイズが利用可能である。コード生成ベンチマークでの評価では、このモデルは他のすべてのオープンソースモデルを上回り、ChatGPTに匹敵した。