InfoQ ホームページ AIと機械学習、データエンジニアリング に関するすべてのコンテンツ
-
AWS、AIを活用した新しいアシスタント「Amazon Q」を発表
AWSは、プロフェッショナルに向けて設計された新しい生成AIを搭載したアシスタント「Amazon Q」を発表した。このアシスタントは企業の要件に合わせて設定可能で、コード、企業システム、データリポジトリに存在する情報を活用することで、会話、問題解決、コンテンツ生成、アクションに移すことを支援する。
-
AI研究者、間違いからの学習を模倣することでLLMベースの推論を改善する
マイクロソフト、北京大学、西安交通大学の研究者は、人間が自分の失敗から学ぶ方法を再現することによって、大規模言語モデル(LLM)の数学問題を解く能力を向上させる技術を開発したと発表した。
-
Spotify、最近傍検索ライブラリVoyagerをオープンソース化
Spotify Engineeringは最近、近似最近傍(ANN)検索ライブラリであるVoyagerをオープンソース化した。VoyagerはHNSW(hierarchical navigable small worlds)アルゴリズムに基づいており、Spotifyの以前のANNライブラリAnnoyよりも10倍高速である。
-
AWSがAmazon SageMaker JumpStartに新しいコード生成モデルを追加
AWSは最近、Amazon SageMaker JumpStartで2つの新しい基礎モデルを利用可能にすることを発表した。Code LlamaとMistral 7B だ。これらのモデルはワンクリックでデプロイでき、AWSユーザーにコード生成タスク用のプライベート推論エンドポイントを提供する。
-
OpenAIは、ChatGPTのノーコード、カスタムバージョンを作成できるGPTを発表した。
先日のOpenAI開発者会議で、OpenAIは>GPT、つまり特定のタスクのために作成されたChatGPTのカスタムバージョンを展開すると発表した。開発者はGPTをChatGPTストアで共有し、収益化できる。
-
Timescale社、サーバーレスデータベースに代わるDynamic PostgreSQLを発表
Timescaleは最近、あらかじめ定義されたvCPUの範囲内でデータベース容量を拡張する新しいクラウド管理オプション、Dynamic PostgreSQLを発表した。「ベースを買ってピークを借りる」と宣伝されているこの新しいオプションは、負荷に応じて容量をスケールし、サーバーレスオプションの予測不可能性と変動性に対処しようとしている。
-
スタックオーバーフローが生成AIの向けのOverflowAIイニシアチブを発表
Stack Overflowは、同社のパブリック・プラットフォームであるStack Overflow for TeamsにジェネレーティブAIを統合するためのロードマップと、開発者が集中力を高めて作業を進める場所に、コミュニティから5800万件の質問と回答の膨大な知識をもたらすIDE統合のような、まったく新しい製品分野を発表した。Stack Overflowは、OverflowAIの傘下にこれらすべての作業を置いている。
-
Google、AIのファインチューニング方法であるDistilling Step-by-Stepをオープンソース化
ワシントン大学とGoogle Researchのチームは先日、より小さな言語モデルのファインチューニングを行う手法であるDistilling Step-by-Stepをオープンソース化した。Distilling Step-by-Stepは、標準的なファインチューニングよりも少ないトレーニングデータで、700倍のパラメータを持つ数発のプロンプト大規模言語モデル(LLM)を凌駕する小さなモデルを生成できる。
-
Meta社のオープンソースコード世代 LLM Code Llama
Meta社は最近、コード生成LLMであるCode Llamaをオープンソース化した。これはLlama 2の基礎モデルに基づいており、同じコミュニティ・ライセンスが適用されている。Code Llamaは500Bトークンのコードで微調整され、34Bパラメータまでの3つのモデルサイズが利用可能である。コード生成ベンチマークでの評価では、このモデルは他のすべてのオープンソースモデルを上回り、ChatGPTに匹敵した。
-
ジェネレーティブAIサービス「AWS Bedrock」が一般提供開始
昨年4月にプレビュー版として発表されたBedrockだが、アマゾンはジェネレーティブAIアプリ向けのフルマネージドサービスの一般提供を発表した。
-
Semantic Kernel LLM Java SDKが利用可能になり、GenAIの統合が簡素化
大規模言語モデル(LLM)を一般的なプログラミング言語と統合するSDKであるSemantic Kernelが、Javaで利用可能になった。マイクロソフト社は最近のブログ記事で、Javaライブラリの登場を発表した。マイクロソフト社は今年初め、Semantic Kernelを初めてオープンソース化した。マイクロソフト社はSemantic Kernelを、AI LLMの統合を可能にする軽量SDKと呼んでいる。Semantic KernelSDKはJava以外に、C#とPythonプログラミング言語もサポートしている。
-
本番環境におけるLLM最適化のための、Hugging Faceのガイド
大規模言語モデル(LLM)を実運用に導入する場合、2つの大きな課題は、それらが必要とする膨大な量のパラメータと、文脈情報を表現するための非常に長い入力シーケンスを扱う必要性から生じる。 Hugging Faceは、このようなモデルを扱った経験に基づき、これらのハードルに取り組むためのテクニックのリストを文書化した。
-
Amazon Opensearch Serverless用のベクトルエンジンがプレビュー開始
AWSは、Amazon OpenSearch Serverless内のベクトルストレージと検索機能のプレビューリリースを発表した。この機能は、機械学習によって拡張された検索体験と生成AIアプリケーションをサポートすることを目的としている。
-
ウェブ、プライベート、SaaSアプリケーション全体のデータセキュリティには"Cloudflare One Data Protection Suite"を
Cloudflareはこのほど、ウェブ、プライベート、SaaSアプリケーションなど、あらゆる環境でデータを保護するために設計された高度なセキュリティ・ソリューションの統一セットであるOne Data Protection Suiteを発表した。この製品はCloudflareのSecurity Service Edge(SSE)によって提供され、顧客は単一のプラットフォームから、クラウドにおけるコンプライアンスの合理化、データの露出とソースコードの損失の軽減、開発者とAI環境の安全性を実現できるとしている。
-
Ai4 2023 パネルディスカッション:ビジネスと社会における生成AI
先日開催されたAi4カンファレンスでは、"Generative AI in Business and Society (「ビジネスと社会における生成AI」)"と題したパネルディスカッションが行われた。重要なポイントは、生成AIは業務効率化と製品のパーソナライゼーションに多くの機会を提供すること、企業はプライバシーへの懸念とパーソナライゼーションのバランスを取る必要があること、そして生成AIが組織全体でどのように使用されているかを理解する必要があることである。