InfoQ ホームページ generative-ai に関するすべてのコンテンツ
-
研究者らが、LLMジェイルブレイク攻撃の防御アルゴリズム"SafeDecoding"のオープンソース化を発表
ワシントン大学、ペンシルバニア州立大学、アレンAI研究所の研究者が、大規模言語モデル(LLM)をジェイルブレイク攻撃から守る技術である、"SafeDecoding"のオープンソース化を発表した。SafeDecodingは、大きな計算オーバーヘッドを発生させることなく、ベースラインのジェイルブレイク防御を上回る性能を発揮する。
-
eBayに学ぶ、ソフトウェア開発の生産性向上における生成AIについての教訓
eBayはこの程、開発プロセスにおける生成AIの適用について学んだ教訓を明らかにした。 eBayのAIへの取り組みは、開発者の生産性を向上させるための3つの極めて重要な道筋を発見した。商用製品の統合、既存の大規模言語モデル(LLM)のファインチューニング、そして社内の知識ネットワークの活用である。
-
"Google BigQuery"、ベクトル検索を導入
Googleはこの程、BigQueryがベクトル検索をサポートするようになったと発表した。この新機能は、セマンティック検索、類似性検出、大規模言語モデル(LLM)による検索拡張生成(RAG)といったデータやAIのユースケースで必要とされるベクトル類似性検索を可能にする。
-
InfoQ & QConイベント:生成AI、セキュリティ、プラットフォームエンジニアリングなどのレベルアップを図る
ソフトウェアシステムを構築・運用するチームにとって、短期的・長期的に重要な優先事項をナビゲートする必要性は、かつてないほど差し迫っている。ソフトウェアの専門家として、私たちは読者諸氏が常に解決策を必要とする課題に直面していることを理解している。生成AI、スケーリングクラウドネイティブアーキテクチャ、パフォーマンスエンジニアリング、レジリエンス、最新の分散システム設計といったトピックは、もはや単なるバズワードではなく、実質的にすべてのソフトウェア開発ロードマップにおいて極めて重要な要素となっている。
-
NVIDIA、ローカルで動作するAIチャットボット「Chat with RTX」を発表
NVIDIAはChat withRTXを発表し、パーソナライズされたチャットボット体験をユーザー自身が構築できるようになった。多くのクラウドベースのソリューションとは異なり、Chat with RTXは完全にローカルのWindows PCまたはワークステーション上で動作し、データのプライバシーとコントロールを高めている。
-
Stability AIのオープンソース動画生成モデル Stable Video Diffusion
Stability AI社は、動画生成AIモデルStable Video Diffusion(SVD)のコードとモデルウェイトを公開した。コンテキストとして入力画像が与えられると、このモデルは576x1024ピクセルの解像度で25のビデオフレームを生成できる。
-
Mistral AIのオープンソースモデル"Mixtral 8x7B"、GPT-3.5を上回る
Mistral AIは先日、スパース混合エキスパート(SMoE)大規模言語モデル(LLM)であるMixtral 8x7Bをリリースした。このモデルは総パラメータ46.7Bを含むが、その3分の1のサイズのモデルと同じスピードとコストで推論を処理できる。いくつかのLLMベンチマークでは、Llama 2 70BとGPT-3.5の両方を上回った。
-
Amazon Q Code Transformation:Javaアプリケーションのアップグレードを自動化する
AWSは最近、Amazon Q Code Transformationのプレビューを発表した。このサービスは、生成的な人工知能によって既存のJavaアプリケーションコードのアップグレードプロセスを簡素化するように設計されている。この新機能は、レガシーコードを最小限に抑え、古い言語バージョンからの移行に必要な一般的な言語アップグレードタスクを自動化することを目的としている。
-
OpenAIがAIの安全性に"Preparedness Framework"を採用
OpenAIはこの頃、AIのリスクを軽減するためのPreparedness Frameworkのベータ版を発表した。このFrameworkには、4つのリスクカテゴリーとそれぞれのリスクレベルの定義が記載されており、OpenAIの安全ガバナンス手順も定義されている。
-
OpenAIがGPTプロンプトエンジニアリングガイドを発表
先日、OpenAIはプロンプトエンジニアリングのガイドを発表した。このガイドでは、GPTモデルからより良い応答を引き出すための6つの戦略が掲載されており、特に最新バージョンであるGPT-4の例に焦点を当てられている。
-
Microsoft、小型言語モデルPhi-2を発表
Microsoft Researchは、27億パラメータのTransformerベースの言語モデルであるPhi-2を発表した。Phi-2はGPT-3.5によって生成された1.4Tトークンの合成データでトレーニングされ、様々なベンチマークでより大規模なモデルを上回る性能を発揮する。
-
MicrosoftのOrca 2 LLM、性能面で10倍大きいモデルを凌駕
Microsoft Researchは、Llama 2の微調整版であるOrca 2 LLMを発表した。Orca 2 LLMは、10倍のパラメータを含むモデルと同等かそれ以上の性能を発揮できる。この性能を達成するために、合成トレーニングデータセットとプロンプト消去と呼ばれる新しい技術を使用している。
-
Amazon、AI画像ジェネレーター「Titan Image Generator」を発表
Amazonは、AWS re:Invent 2023イベントにおいて、Titan Image Generatorを発表した。Titan Image Generatorは、AmazonのAI開発プラットフォームであるBedrock上でAWS顧客向けにプレビュー中である。Amazonの生成AIモデルTitanファミリーの一員として、Titan Image Generatorは、テキストの説明に基づいて新しい画像を生成したり、既存の画像をカスタマイズできる。
-
Meta、生成AIモデル「Emu Video」と「Emu Edit」を発表
Meta AI Researchは、2つの新しい生成AIモデルを発表した。Emu Videoは、テキストプロンプトにて短い動画の生成ができ、Emu Editは、テキストベースの指示を受けて画像編集ができる。両モデルとも、Meta社のEmu基礎モデルをベースにしており、いくつかのベンチマークで最先端の性能を示している。
-
xAI、大規模言語モデル"Grok"を発表
イーロン・マスク氏が設立したAI企業xAIはこの頃、大規模言語モデルGrokを発表した。GrokはXプラットフォームを通じて世界の現在の知識にアクセスでき、いくつかのベンチマークでGPT-3.5を含む同規模の他の大規模言語モデル(LLM)を凌駕している。