InfoQ ホームページ AIと機械学習、データエンジニアリング に関するすべてのコンテンツ
-
Googleが視覚言語モデルファミリーPaliGemma 2をリリース
Google DeepMindは視覚言語モデル(VLM)ファミリー PaliGemma 2をリリースした。PaliGemma 2は3つの異なるサイズと3つの入力画像解像度が利用可能で、複数の視覚言語ベンチマークで最先端の性能を達成している。
-
インパクトのあるデータ製品戦略を形成する
講演者であり、データ戦略家であり、『Data is Like a Plate of Hummus(データはフムスの皿のようなもの)』の著者でもあるLior Barak(バラック氏)が、Data Engineering Podcastで、戦略計画を推進するためのデータ・ビジョン・ボードの活用について語った。バラック氏は、組織のデータ中心戦略において、データチームはしばしば後になってからコストがかかることになりがちであると主張し、連携、進化、そしてインパクトのある能力の提供を確実にするための3年間の共同ロードマップを提案した。
-
Azure Boost DPU:クラウドのパフォーマンスを強化するマイクロソフトの新しいシリコンソリューション
マイクロソフトは先日のIgniteカンファレンスで、効率的で低消費電力のデータ中心ワークロード向けに設計された、初の自社製データ処理ユニット(DPU)であるAzure Boost DPUを発表した。同社によると、この単一のシリコンは、高速イーサネットおよびPCIeインターフェース、ネットワークおよびストレージエンジン、データアクセラレータ、セキュリティ機能を統合し、完全にプログラマブルなシステム・オン・ア・チップになっているという。
-
NVIDIAが初のパーソナルAIコンピューター、Arm搭載Project Digitsを発表
200Bパラメータ・モデルを実行可能なNvidia Project Digits は新しいNvidia GB10 Grace Blackwell Superchipを搭載し、AIモデルのファインチューニングと実行を開発者がローカルマシンでできるようにする。3,000ドルからスタートするProject DigitsはAI研究者、データサイエンティスト、学生をターゲットとしており、デスクトップシステムを使ってモデルを作成し、クラウドやデータセンターのインフラストラクチャにデプロイすることを可能にする。
-
LLaMA-Mesh: 3Dメッシュ生成と言語モデルの統合におけるNVIDIAのブレークスルー
NVIDIA研究者はLLaMA-Mesh、大規模言語モデル(LLM)を拡張し、統一されたテキストベース・フレームワークで3Dメッシュデータの生成と解釈を行う画期的なアプローチを発表した。LLaMA-Meshは3Dメッシュをプレーンテキストとしてトークン化し、空間情報とテキスト情報のシームレスな統合を可能にする。
-
Hugging Face Smolagents:LLMを搭載したエージェントを構築するためのシンプルなライブラリ
Smolagentsは、大規模言語モデル(LLM)を活用したエージェントを構築するためにHugging Faceで作成されたライブラリである。Hugging Faces社によると、この新しいライブラリはシンプルで特定のLLMにとらわれないことを目指しているという。セキュアな「コードでアクションを記述するエージェント」をサポートし、Hugging Face Hubと統合されている。
-
"DeepThought-8B":LLaMA-3.1 8Bを活用してコンパクトな推論モデルを作成
DeepThought-8Bは、LLaMA-3.1 8B上に構築された小型の「推論」モデルであり、OpenAI o1と同様に、意思決定プロセスを段階的に実行できるが、はるかに小型のパッケージである。
-
InstaDeep社、ゲノムAIモデル「Nucleotide Transformer」をオープンソース化
InstaDeep社とNVIDIA社の研究者は、ゲノムデータ用の基礎モデル群である、"Nucleotide Transformers"(NT)をオープンソース化した。最大のNTモデルは25億のパラメーターを持ち、850種の遺伝子配列データで学習された。いくつかのゲノムベンチマークにおいて、他の最先端のゲノム基盤モデルを凌駕している。
-
AWSがS3 Tables Bucketを発表:S3はデータレイクハウスになるのか?
AWSは最近、分析ワークロードに最適化されたマネージドApache IcebergテーブルであるS3 Tables Bucketを発表した。クラウドプロバイダーによると、この新しいオプションは、標準的なS3ストレージと比較して、Apache Icebergテーブルのクエリパフォーマンスを最大3倍高速化し、トランザクションレートを最大10倍高速化するという。
-
Google DeepMindがGemini 2.0を発表:AIパフォーマンスとマルチモーダル統合における飛躍
Google DeepMindは、前モデルのGemini 1.5 Proの2倍の処理速度を実現するAIモデルGemini 2.0を発表した。このモデルはテキスト、画像、その他の入力を組み合わせて高度な推論を行う複雑なマルチモーダルタスクをサポートしている。JAX/XLAフレームワーク上に構築されたGemini 2.0は大規模に最適化され、複雑なトピックを探索するためのDeep Researchなどの新機能を含んでいる。現在、開発者と信頼できるテスターに提供されており、近くGeminiやSearchのようなGoogle製品に統合される予定である。
-
Cloudflare 2024年を振り返る:GitHub Copilotの力強い成長とGoがNode.jsを上回る
Cloudflareはこのほど、グローバルハイパースケーラネットワークのデータを分析したレポート「Radar Year in Review」の第5版を発表した。その結果、世界のインターネットトラフィックは17.2%増加し、モバイルとIPv6リクエストの顕著な伸びが明らかになった。さらに、自動化されたAPIリクエストでもっとも人気のある言語としてGoがNode.jsを抜き、GitHub Copilotが大きな伸びを示した。
-
Qwen開発チーム、QwQ-32B-Previewを発表:AIによる推論と分析が進化
LLM(大規模言語モデル)であるQwenの開発チームは、AIの推論と分析能力を向上させるために設計された実験的研究モデル、QwQ-32B-Previewを発表した。32,768トークンのコンテキストと最先端の変換アーキテクチャを特徴とするこのモデルは、GPQAやMATH-500のような数学、プログラミング、科学ベンチマークに優れている。Hugging Faceで利用可能で、その機能を探求し、開発に貢献をしてくれる研究者たちを募っている。
-
Amazonが Amazon Nova、基盤モデルのシリーズを発表
Amazonは生成AIタスク向けに設計された基盤モデルのファミリーAmazon Novaを発表した。AWS re:Inventの中に行われたこの発表は、ドキュメントやビデオの分析、チャートの理解、ビデオコンテンツの生成、AIエージェントの開発といったタスクにおけるモデルの能力をハイライトしている。
-
QCon San Francisco 2024のAIとMLトラック - 生成AIと実用的アプリケーションを深掘り
InfoQによる国際的なソフトウェア開発会議であるQCon San Francisco 2024では、AIとMLの急速な進歩に特化した2つのトラックが設けられており、これらの技術が現代のソフトウェア開発の中心となっていることを反映している。
-
Timescale、AI対応のPostgreSQLをpgai Vectorizerで強化
Timescale社は最近、pgai VectorizerでPostgreSQLのAIサービスを拡張した。このアップデートにより、開発者は外部ツールや追加インフラを必要とすることなく、リレーショナルデータと共にベクトル埋め込みを作成、保存、管理できるようになる。