InfoQ ホームページ AIと機械学習、データエンジニアリング に関するすべてのコンテンツ
-
HelixML、Helix 1.0のリリースを発表
HelixMLは、生成AIのためのHelixプラットフォームがバージョン1.0で製品化準備が整ったことを発表した。このプラットフォームは「プライベートGenAIスタック」と称され、様々な大規模言語モデル(LLM)に接続できるインターフェース層とアプリケーションを提供する。このプラットフォームは、ラップトップ1台からアプリケーションのプロトタイプを作成でき、すべてのコンポーネントがバージョン管理されているため、有効性が証明されたアプリケーションのその後の展開や拡張が容易である。また、LLMの非決定論的な領域では、テストの代わりとして(eval)が重視されている。
-
XプラットフォームでGrok-2ベータ版がリリースされた
Grok-2言語モデルがXプラットフォーム上でベータ版としてリリースされ、Grok-2 miniと共に発表された。LMSYSリーダーボード上で「sus-column-r」という名称でテストされたこのモデルは、Claude 3.5 Sonnetと GPT-4-ターボと比較して高いEloスコアを達成した。Grok-2 miniは、処理速度とパフォーマンスのバランスを重視して設計された軽量版で、ベータリリースの一部である。
-
Apple社、Apple Intelligenceを支えるApple Foundation Modelsを発表
Apple社は、Apple Intelligence suiteのいくつかの機能を提供する大規模言語モデル(LLM)ファミリーである新しいApple Foundation Models(AFM)の詳細を発表した。AFMには、30億パラメータのオンデバイス版と、より大きなクラウドベース版の2つのサイズがある。
-
チーム・イネーブラーとしてのLLMとエージェント
Scrum.orgは最近、COOであるEric Naiburg氏によるAI as a Scrum Team Member と題した記事を掲載した。Naiburg氏は、スクラムマスター、プロダクトオーナー、開発者にとっての生産効率の利点を説明した上で、読者にAIが「チームメンバー」としてスクラムチームに「シームレスに統合されていることを想像する」よう呼びかけた。Thoughtworks社のAIアシストソフトウェアデリバリーのグローバルリードであるBirgitta Böckeler氏も最近、「Exploring Generative AI」と題した記事を発表し、エンジニアリングシナリオにおけるLLM(大規模言語モデル)の使用を含む実験に関する洞察を共有した。同実験においては、LLM(大規模言語モデル)がソフトウェアデリバリーチームに相乗効果をもたらしている可能性がある。
-
Mistral AI、3つのオープンウエイト言語モデルをリリース
Mistral AIは3つのオープンウェイト言語モデルをリリースした:12Bパラメータの汎用LLM「Mistral NeMo」、7Bパラメータのコード生成モデル「Codestral Mamba」、数学と推論用に微調整された7Bパラメータのモデル「Mathstral」である。この3つのモデルはすべてApache 2.0ライセンスで提供されている。
-
Amazon MemoryDBがAWSで最速のベクトル検索を提供する
AWSは最近、Multi-AZで利用可能なマネージド・インメモリ・データベースであるAmazon MemoryDBのベクトル検索の一般提供を発表した。この新機能は、AWS上のベクトルデータベースの中でもっとも高いリコール率で、超低レイテンシーと最速のベクトル検索性能を提供する。
-
YouTubeでの音楽レコメンドにTransformerアーキテクチャを活用
Google社は、現在の生成AIブームの火付け役であるトランスフォーマーモデルを音楽レコメンドに活用するアプローチについて説明した。現在YouTubeで実験的に適用されているこのアプローチは、音楽を聴く際のユーザーの一連の行動を理解し、そのコンテキストに基づいてユーザーの好みをより的確に予測できるレコメンダーを構築することを目的としている。
-
Microsoft .NET Conf:Focus on AI
先月、.NET Conf: Focusの2024年最新版が開催され、AI開発のトピックが取り上げられた。このイベントは、あらゆるレベルの開発者を対象とし、.NETエコシステムでの人工知能の使用方法を紹介する情報セッションとハンズオン・セッションの両方が行われた。このイベントは、フォーカス・シリーズの中でも最も技術的なイベントの1つで、質の高い、深く掘り下げたセッションが数多く行われた。
-
InfoQ Dev Summit Munich 2024 Summer セール情報:生成AI、サプライチェーンセキュリティ、スケーラブルアーキテクチャとは
InfoQ Dev Summit Munich(9月26-27日)まで、残り40日を切った。20人以上の現役シニアソフトウェア開発者が、実用的なヒントをもりこんで公平に講演する。開発ロードマップ作りでの手堅い選択にすぐ役立つだろう。
-
NVIDIA NIM、Hugging Faceで推論サービスとして利用可能に
Hugging Faceは、NVIDIA NIMによる推論サービスの提供開始を発表した。今回の新サービスで、開発者は主要なAIモデルのNVIDIAによる高速化された推論に容易にアクセスできるようになる。
-
大学の研究者らが新しいタイプの解釈可能なニューラルネットワークを構築
マサチューセッツ工科大学、カリフォルニア工科大学、ノースイースタン大学の研究者が、新しいタイプのニューラルネットワークを作成した、Kolmogorov–Arnold Networks(KAN)である。KANモデルは、物理モデリング・タスクにおいて、より大きなパーセプトロン・ベースのモデルを凌ぐ性能を示し、より解釈しやすい可視化を提供する。
-
Spring エコシステムが数々のマイルストーンのリリースを発表
2024年7月15日の週は、Spring エコシステムの話題に富んだ1週間だった。見どころは次のようなマイルストーンのリリースだ。今回リリースが発表されたのは、Spring Boot 3.4.0-M1、Spring Framework 6.2.0-M6、Spring Security 6.4.0-M1、Spring Session 3.4.0-M1、Spring Integration 6.4.0-M1、Spring Modulith 1.3.0-M1、Spring AMQP 3.2.0-M1、Spring for Apache Kafka 3.3.0-M1である。
-
Meta社、これまでで最大のオープンソースモデルとなるLlama 3.1 405Bをリリース
Meta社は最近、最新の言語モデルLlama 3.1 405Bを発表した。このAIモデルは、8Bと70Bバージョンも含む新しいLlamaモデルの中で最大のもので���る。4,050億のパラメータ、15兆のトークン、16,000のGPUを持つLlama 3.1 405Bは、様々な印象的な機能を提供する。
-
Elasticがオープンソースに回帰:コミュニティはついてくるか?
オープンソースとElasticの両コミュニティにとって驚くべき動きとして、Elasticの創設者兼CEOであるShay Banon氏は最近、ElasticsearchとKibanaを再びオープンソースにすると発表した。この2つの製品は間もなく、OSI承認のライセンスであるAGPLの下でライセンスされる。
-
Canva、SNS+SQSよりAmazon KDSを選択し、1日250億件のイベントで85%の節約を実現
Canvaは、同社のProduct Analytics Platformのために、AWS SNSとSQSの組み合わせ、MKS、Amazon KDSなど、さまざまなデータメッセージングソリューション群を評価し、主に費用面での大きな優位性から最終的にAmazon KDSを選択した。同社は、パフォーマンス、メンテナンスの労力、コストなど、これらのソリューションに対して多くの側面から比較を行った。