InfoQ ホームページ AIと機械学習、データエンジニアリング に関するすべてのコンテンツ
-
コードのための大規模言語モデル:QCon Londonにて、Loubna Ben Allal氏語る
QCon Londonにおいて、Loubna Ben Allal氏は、コード用に調整された大規模言語モデル(LLM)について議論した。同氏は、コード補完モデルのライフサイクルについて議論し、膨大なコードベースに対する事前学習と、微調整の段階について強調した。特に、Hugging Faceのようなプラットフォームによって促進されるオープンソースのモデルについて議論した。リソースは、HFハブ上の1.7k以上のモデルと、StarCoder2やDefog-SQLCoderのようなツールで構成されている。指示チューニングのようなカスタマイズ技術を使用することで、オーダーメイドのソリューションを提供できるが、データの偏りやプライバシーの懸念といった課題がある。
-
Reddit、"AWS S3"やその他のシステムからメディアメタデータを"AWS Aurora Postgres"に移行
Redditは、メディアメタデータのストレージをAWS Aurora Postgresを使った新しいアーキテクチャに統合した。以前は、AWS S3から直接取得を行うなど、様々なシステムからメディアメタデータを取得していた。新しいソリューションにより、メディアメタデータの検索が簡素化し、5ms以下のレイテンシで毎秒100k以上のリクエストを処理できるようになる(p90)。
-
KubeCon EU基調講演:生成AIを用いた、責任あるイノベーションを起こすための行動を呼びかける
KubeCon EUの午前中の基調講演は、クラウドネイティブコミュニティに対して、今年のイベントの焦点であった重要な技術やテーマの進化に参加し、支援するよう、まさに行動を呼びかけるものであった。最初の呼びかけはAIに関するもので、生成AIの計算ニーズに必要なインフラを拡張する手助けを求めるものだった。この呼びかけは、クラウドネイティブ・プラットフォームの「ゴールデン・パス」をグリーンで持続可能なものにし、あらゆるイノベーションが責任あるものであることを保証するよう奨励することとバランスが取られていた。
-
Apple社の研究者、異なるLLMを組み合わせて最先端の性能を実現する手法を詳説
この程、多くの大規模言語モデル(LLM)がクローズドソースとオープンソースの両方で利用可能になり、更にマルチモーダルLLM(MLLM)として知られる複合モデルの作成につながっている。しかし、最先端のマルチモーダルLLMを設計するための原則と教訓を抽出した、Apple社の研究者は、そのようなLLMを作るためにどのようなデザインの選択がなされたかを明らかにするものはほとんどない、あるいは皆無だと述べる。
-
Meta社、24000基以上のGPUから成るAIインフラ設計を発表
Meta社はこの程、2つの新しいAIコンピューティング・クラスターの設計を発表し、それぞれ24,576基のGPUを搭載している。これらのクラスタはMeta社のGrand Tetonハードウェア・プラットフォームに基づいており、1つのクラスタは現在Meta社の次世代モデルである、"Llama 3"のトレーニングに使用されている。
-
Databricks、オープンソースの汎用LLM "DBRX" を発表
Databricks社は、オープンモデルの標準を再定義し、業界ベンチマークで有名な競合他社を凌駕することを目的とした、新しいオープンソースの大規模言語モデル(LLM)である、"DBRX"を発表した。
-
CNCF、Kubernetes上のKafkaを簡素化するStrimziをインキュベートする
Cloud-Native Computing Foundation(CNCF)は、Kubernetes上でのApache Kafkaのデプロイを効率化するインキュベート・プロジェクトとしてStrimziを承認した。Strimziは、Kubernetes上でのKafkaの設定、デプロイ、運用を容易にするKubernetes APIを拡張する一連のオペレータを通じて、Kafkaと対話するKubernetesネイティブな方法を提供する。
-
研究者らが、LLMジェイルブレイク攻撃の防御アルゴリズム"SafeDecoding"のオープンソース化を発表
ワシントン大学、ペンシルバニア州立大学、アレンAI研究所の研究者が、大規模言語モデル(LLM)をジェイルブレイク攻撃から守る技術である、"SafeDecoding"のオープンソース化を発表した。SafeDecodingは、大きな計算オーバーヘッドを発生させることなく、ベースラインのジェイルブレイク防御を上回る性能を発揮する。
-
Microsoft、.NETスマートコンポーネントを発表:AIを搭載したUIコントロール
Microsoftはこのほど、 .NETアプリケーション内の開発生産性を高めるAI機能を提供するUIコントロール、.NET Smart Componentsを発表した。Microsoftによると、これらのコンポーネントは、既存の.NETアプリケーションへのAI機能の統合を簡素化するように設計されており、前述の通り、開発者の労力は最小限に抑えられるという。
-
OpenAI、"Transformer Debugger"ツールをリリース
OpenAIは、"Transformer Debugger"(TDB)と呼ばれる新しいツールを発表した。このツールはOpenAIのSuperalignmentチームによって開発され、自動解釈可能性技術とスパースオートエンコーダを組み合わせたものである。
-
Azure OpenAIの「On Your Data」機能が一般利用可能に
Microsoft社は、Azure OpenAI Serviceで"On Your Data"機能の一般提供を正式に開始した。この機能により、ユーザーはGPT-4を含むOpenAIモデルのフルパワーを活用し、RAG(Retrieval Augmented Generation)モデルの高度な機能をデータとシームレスに統合可能となった。同社によると、これらはすべてAzure上のエンタープライズ・グレードのセキュリティ(プライベート・エンドポイントとVPN経由)に支えられており、安全で保護されたユーザー・データ環境を保証しているという。
-
RWKVプロジェクト、LLM "Eagle 7B"をオープンソース化
RWKVプロジェクトはこの程、75.2億パラメータの大規模言語モデル(LLM)である、Eagle 7Bをオープンソース化した。Eagle 7Bは、100以上の言語の1.1兆トークンのテキストで学習され、多言語ベンチマークにおいて他の同サイズのモデルを凌駕している。
-
Data Solutions Framework:AWS上でデータソリューションを構築するためのオープンソースプロジェクト
AWSはこの程、Data Solutions Framework (DSF)をリリースした。これは、AWS上でデータソリューションの作成を加速するために設計された、オープンソースのフレームワークである。AWS CDKを使用して構築されたこのフレームワークは、データソリューションを構築するためのビルディングブロックとして抽象化とパターンを公開しており、TypeScript(npm)とPython(PyPi)で利用できる。
-
Google、開発者向けの新しいオープンソースAIモデル「Gemma」を発表
Googleは、新しいオープンソースのAIモデルであるGemmaを発表した。GoogleのAIモデル「Gemini」を支える技術を用いて開発されたGemmaは、AIアプリケーションを良心的に作成するための高度なツールを開発者に提供することを目的としている。
-
"Google BigQuery"、ベクトル検索を導入
Googleはこの程、BigQueryがベクトル検索をサポートするようになったと発表した。この新機能は、セマンティック検索、類似性検出、大規模言語モデル(LLM)による検索拡張生成(RAG)といったデータやAIのユースケースで必要とされるベクトル類似性検索を可能にする。