InfoQ ホームページ AIと機械学習、データエンジニアリング に関するすべてのコンテンツ
-
Amazon Q BusinessとAmazon Q Developerが一般提供開始
AWSはこのほど、企業や開発者向けにカスタマイズされた生成AI搭載のアシスタントAmazon Qの一般提供を発表した。Amazon Q Developerは、リアルタイムでコードの提案や推奨を提供し、Amazon Q Businessは、企業が構造化および非構造化データから洞察を得ることを可能にする。
-
Hugging Face社、ロボット工学のためのオープンソース機械学習モデル「LeRobot」を発表
Hugging Face社は、実世界のロボット工学アプリケーション用に学習された新しい機械学習モデル、LeRobotを発表した。LeRobotはプラットフォームとして機能し、データ共有、視覚化、高度なモデルのトレーニングのための多用途ライブラリを提供する。
-
ベースラインOpenAIエンドツーエンドチャットリファレンスアーキテクチャ
Microsoftは、ベースラインOpenAIエンドツーエンドチャットリファレンスアーキテクチャを公開した。このベースラインには、コンポーネント、フロー、セキュリティに関する情報が含まれている。また、パフォーマンス、モニタリング、デプロイメントガイダンスに関する詳細もある。さらに、Microsoftはソリューションをデプロイして実行するためのリファレンス実装を用意した。
-
"Mistral Large"基盤モデル、Amazon Bedrockにて利用可能に
AWSは、先日のAWS Paris Summitにおいて、Mistral Large基盤モデルがAmazon Bedrock上で利用可能になったことを発表した。この発表は、Amazon Bedrock上でのMistral AIモデルのリリースの数日後に行われた。
-
OpenAIが新たなファインチューニングAPI機能をリリース
OpenAIは、ファインチューニングAPIの新機能リリースを発表した。この機能により、モデル開発者はファインチューニングプロセスをよりコントロールできるだけでなく、モデルのパフォーマンスをより深く理解しやすくなるだろう。
-
Thoughtworksのデータ・AI担当VP、QCon Londonで堅牢なデータ製品構築のための洞察を語る
Thoughtworks社のデータ&AI担当VPであるDanilo Sato氏は、QCon Londonのプレゼンテーションで、データ製品の実装の際にドメイン駆動設計とチーム・トポロジーの原則を適用することの重要性をあらためて強調した。これにより、データの責任が開発者に「委ねられる」複雑な状況おいても、効果的なデータのカプセル化が保証される。
-
GoogleがAgent Builder、拡張Gemini 1.5、オープンソース追加を発表
Googleは、Google Cloud Next 2024イ��ントにおいて、Vertex AI Agent Builderの開始、Googleのもっとも先進的な生成AIモデルであるGemini 1.5 Proのパブリックプレビュー、Vertex AIプラットフォームへのオープンソース言語モデルの追加を発表した。
-
Airbnb、ML機能プラットフォームChrononをオープンソース化
生データをML対応フィーチャーに変換するために必要なインフラを構築するためのAirbnbのプラットフォームChrononがオープンソース化した。AirbnbのMLインフラエンジニアであるVarant Zanoyan氏が説明するように、Chrononは様々なデータソースをサポートし、低レイテンシーのストリーミングを提供することを目指している。
-
Google、ユーザーインターフェースとインフォグラフィックスを理解するAIモデル「ScreenAI」を育成
Google Researchは先日、インフォグラフィックスとユーザーインターフェースを理解するためのマルチモーダルAIモデル「ScreenAI」を開発した。ScreenAIはPaLIアーキテクチャをベースにしており、いくつもの課題において最先端の性能を記録している。
-
オープンソースElastic社のOpenTelemetry SDK for .NET
Elastic社は、OpenTelemetry SDK for .NETのElasticディストリビューションのアルファ版リリースを発表した。このディストリビューションは、トレース、メトリクス、ログの収集を事前に設定する。さらに、このディストリビューションでは、OTLPエクスポーターがデフォルトで有効になっている。このプロジェクトはオープンソースである。
-
コードのための大規模言語モデル:QCon Londonにて、Loubna Ben Allal氏語る
QCon Londonにおいて、Loubna Ben Allal氏は、コード用に調整された大規模言語モデル(LLM)について議論した。同氏は、コード補完モデルのライフサイクルについて議論し、膨大なコードベースに対する事前学習と、微調整の段階について強調した。特に、Hugging Faceのようなプラットフォームによって促進されるオープンソースのモデルについて議論した。リソースは、HFハブ上の1.7k以上のモデルと、StarCoder2やDefog-SQLCoderのようなツールで構成されている。指示チューニングのようなカスタマイズ技術を使用することで、オーダーメイドのソリューションを提供できるが、データの偏りやプライバシーの懸念といった課題がある。
-
Reddit、"AWS S3"やその他のシステムからメディアメタデータを"AWS Aurora Postgres"に移行
Redditは、メディアメタデータのストレージをAWS Aurora Postgresを使った新しいアーキテクチャに統合した。以前は、AWS S3から直接取得を行うなど、様々なシステムからメディアメタデータを取得していた。新しいソリューションにより、メディアメタデータの検索が簡素化し、5ms以下のレイテンシで毎秒100k以上のリクエストを処理できるようになる(p90)。
-
KubeCon EU基調講演:生成AIを用いた、責任あるイノベーションを起こすための行動を呼びかける
KubeCon EUの午前中の基調講演は、クラウドネイティブコミュニティに対して、今年のイベントの焦点であった重要な技術やテーマの進化に参加し、支援するよう、まさに行動を呼びかけるものであった。最初の呼びかけはAIに関するもので、生成AIの計算ニーズに必要なインフラを拡張する手助けを求めるものだった。この呼びか��は、クラウドネイティブ・プラットフォームの「ゴールデン・パス」をグリーンで持続可能なものにし、あらゆるイノベーションが責任あるものであることを保証するよう奨励することとバランスが取られていた。
-
Apple社の研究者、異なるLLMを組み合わせて最先端の性能を実現する手法を詳説
この程、多くの大規模言語モデル(LLM)がクローズドソースとオープンソースの両方で利用可能になり、更にマルチモーダルLLM(MLLM)として知られる複合モデルの作成につながっている。しかし、最先端のマルチモーダルLLMを設計するための原則と教訓を抽出した、Apple社の研究者は、そのようなLLMを作るためにどのようなデザインの選択がなされたかを明らかにするものはほとんどない、あるいは皆無だと述べる。
-
Meta社、24000基以上のGPUから成るAIインフラ設計を発表
Meta社はこの程、2つの新しいAIコンピューティング・クラスターの設計を発表し、それぞれ24,576基のGPUを搭載している。これらのクラスタはMeta社のGrand Tetonハードウェア・プラットフォームに基づいており、1つのクラスタは現在Meta社の次世代モデルである、"Llama 3"のトレーニングに使用されている。