InfoQ ホームページ generative-ai に関するすべてのコンテンツ
-
InfoQ & QConイベント:生成AI、セキュリティ、プラットフォームエンジニアリングなどのレベルアップを図る
ソフトウェアシステムを構築・運用するチームにとって、短期的・長期的に重要な優先事項をナビゲートする必要性は、かつてないほど差し迫っている。ソフトウェアの専門家として、私たちは読者諸氏が常に解決策を必要とする課題に直面していることを理解している。生成AI、スケーリングクラウドネイティブアーキテクチャ、パフォーマンスエンジニアリング、レジリエンス、最新の分散システム設計といったトピックは、もはや単なるバズワードではなく、実質的にすべてのソフトウェア開発ロードマップにおいて極めて重要な要素となっている。
-
NVIDIA、ローカルで動作するAIチャットボット「Chat with RTX」を発表
NVIDIAはChat withRTXを発表し、パーソナライズされたチャットボット体験をユーザー自身が構築できるようになった。多くのクラウドベースのソリューションとは異なり、Chat with RTXは完全にローカルのWindows PCまたはワークステーション上で動作し、データのプライバシーとコントロールを高めている。
-
Stability AIのオープンソース動画生成モデル Stable Video Diffusion
Stability AI社は、動画生成AIモデルStable Video Diffusion(SVD)のコードとモデルウェイトを公開した。コンテキストとして入力画像が与えられると、このモデルは576x1024ピクセルの解像度で25のビデオフレームを生成できる。
-
Mistral AIのオープンソースモデル"Mixtral 8x7B"、GPT-3.5を上回る
Mistral AIは先日、スパース混合エキスパート(SMoE)大規模言語モデル(LLM)であるMixtral 8x7Bをリリースした。このモデルは総パラメータ46.7Bを含むが、その3分の1のサイズのモデルと同じスピードとコストで推論を処理できる。いくつかのLLMベンチマークでは、Llama 2 70BとGPT-3.5の両方を上回った。
-
Amazon Q Code Transformation:Javaアプリケーションのアップグレードを自動化する
AWSは最近、Amazon Q Code Transformationのプレビューを発表した。このサービスは、生成的な人工知能によって既存のJavaアプリケーションコードのアップグレードプロセスを簡素化するように設計されている。この新機能は、レガシーコードを最小限に抑え、古い言語バージョンからの移行に必要な一般的な言語アップグレードタスクを自動化することを目的としている。
-
OpenAIがAIの安全性に"Preparedness Framework"を採用
OpenAIはこの頃、AIのリスクを軽減するためのPreparedness Frameworkのベータ版を発表した。このFrameworkには、4つのリスクカテゴリーとそれぞれのリスクレベルの定義が記載されており、OpenAIの安全ガバナンス手順も定義されている。
-
OpenAIがGPTプロンプトエンジニアリングガイドを発表
先日、OpenAIはプロンプトエンジニアリングのガイドを発表した。このガイドでは、GPTモデルからより良い応答を引き出すための6つの戦略が掲載されており、特に最新バージョンであるGPT-4の例に焦点を当てられている。
-
Microsoft、小型言語モデルPhi-2を発表
Microsoft Researchは、27億パラメータのTransformerベースの言語モデルであるPhi-2を発表した。Phi-2はGPT-3.5によって生成された1.4Tトークンの合成データでトレーニングされ、様々なベンチマークでより大規模なモデルを上回る性能を発揮する。
-
MicrosoftのOrca 2 LLM、性能面で10倍大きいモデルを凌駕
Microsoft Researchは、Llama 2の微調整版であるOrca 2 LLMを発表した。Orca 2 LLMは、10倍のパラメータを含むモデルと同等かそれ以上の性能を発揮できる。この性能を達成するために、合成トレーニングデータセットとプロンプト消去と呼ばれる新しい技術を使用している。
-
Amazon、AI画像ジェネレーター「Titan Image Generator」を発表
Amazonは、AWS re:Invent 2023イベントにおいて、Titan Image Generatorを発表した。Titan Image Generatorは、AmazonのAI開発プラットフォームであるBedrock上でAWS顧客向けにプレビュー中である。Amazonの生成AIモデルTitanフ��ミリーの一員として、Titan Image Generatorは、テキストの説明に基づいて新しい画像を生成したり、既存の画像をカスタマイズできる。
-
Meta、生成AIモデル「Emu Video」と「Emu Edit」を発表
Meta AI Researchは、2つの新しい生成AIモデルを発表した。Emu Videoは、テキストプロンプトにて短い動画の生成ができ、Emu Editは、テキストベースの指示を受けて画像編集ができる。両モデルとも、Meta社のEmu基礎モデルをベースにしており、いくつかのベンチマークで最先端の性能を示している。
-
xAI、大規模言語モデル"Grok"を発表
イーロン・マスク氏が設立したAI企業xAIはこの頃、大規模言語モデルGrokを発表した。GrokはXプラットフォームを通じて世界の現在の知識にアクセスでき、いくつかのベンチマークでGPT-3.5を含む同規模の他の大規模言語モデル(LLM)を凌駕している。
-
AWS、AIを活用した新しいアシスタント「Amazon Q」を発表
AWSは、プロフェッショナルに向けて設計された新しい生成AIを搭載したアシスタント「Amazon Q」を発表した。このアシスタントは企業の要件に合わせて設定可能で、コード、企業システム、データリポジトリに存在する情報を活用することで、会話、問題解決、コンテンツ生成、アクションに移すことを支援する。
-
スタックオーバーフローが生成AIの向けのOverflowAIイニシアチブを発表
Stack Overflowは、同社のパブリック・プラットフォームであるStack Overflow for TeamsにジェネレーティブAIを統合するためのロードマップと、開発者が集中力を高めて作業を進める場所に、コミュニティから5800万件の質問と回答の膨大な知識をもたらすIDE統合のような、まったく新しい製品分野を発表した。Stack Overflowは、OverflowAIの傘下にこれらすべての作業を置いている。
-
Meta社のオープンソースコード世代 LLM Code Llama
Meta社は最近、コード生成LLMであるCode Llamaをオープンソース化した。これはLlama 2の基礎モデルに基づいており、同じコミュニティ・ライセンスが適用されている。Code Llamaは500Bトークンのコードで微調整され、34Bパラメータまでの3つのモデルサイズが利用可能である。コード生成ベンチマークでの評価では、このモデルは他のすべてのオープンソースモデルを上回り、ChatGPTに匹敵した。