InfoQ ホームページ Artificial Intelligence に関するすべてのコンテンツ
-
マイクロソフト、Promptyをリリース:LLMを.NET開発に統合する新しいVS Code拡張機能
Microsoftは、GPT-4oのような大規模言語モデル(LLM)を.NET開発ワークフローに直接統合するために設計された新しいVisual Studio Code拡張機能「Prompty」をリリースした。この無料ツールは、アプリケーションにAI駆動機能を追加するプロセスを簡素化することを目的としている。公式リリースポストには、Promptyが実際のシナリオでどのように使用できるかを示す実用的な例が含まれている。
-
HelixML、Helix 1.0のリリースを発表
HelixMLは、生成AIのためのHelixプラットフォームがバージョン1.0で製品化準備が整ったことを発表した。このプラットフォームは「プライベートGenAIスタック」と称され、様々な大規模言語モデル(LLM)に接続できるインターフェース層とアプリケーションを提供する。このプラットフォームは、ラップトップ1台からアプリケーションのプロトタイプを作成でき、すべてのコンポーネントがバージョン管理されているため、有効性が証明されたアプリケーションのその後の展開や拡張が容易である。また、LLMの非決定論的な領域では、テストの代わりとして(eval)が重視されている。
-
時代に左右されないテストツールを使う意義
Benjamin Bischoff氏は、開発者にとって、新しいツールは古いツールよりずっと興味深いという。新たなテクノロジーやアプローチが学べ、仕事道具の幅が広がる機会が得られるからだそうだ。しかし、何十年も前からあるツールを使えば、時間と予算を節約できる。ツールを評価する際には、ツールにいきなり飛びつくよりも、解決すべき問題を理解することが重要である。
-
XプラットフォームでGrok-2ベータ版がリリースされた
Grok-2言語モデルがXプラットフォーム上でベータ版としてリリースされ、Grok-2 miniと共に発表された。LMSYSリーダーボード上で「sus-column-r」という名称でテストされたこのモデルは、Claude 3.5 Sonnetと GPT-4-ターボと比較して高いEloスコアを達成した。Grok-2 miniは、処理速度とパフォーマンスのバランスを重視して設計された軽量版で、ベータリリースの一部である。
-
Apple社、Apple Intelligenceを支えるApple Foundation Modelsを発表
Apple社は、Apple Intelligence suiteのいくつかの機能を提供する大規模言語モデル(LLM)ファミリーである新しいApple Foundation Models(AFM)の詳細を発表した。AFMには、30億パラメータのオンデバイス版と、より大きなクラウドベース版の2つのサイズがある。
-
チーム・イネーブラーとしてのLLMとエージェント
Scrum.orgは最近、COOであるEric Naiburg氏によるAI as a Scrum Team Member と題した記事を掲載した。Naiburg氏は、スクラムマスター、プロダクトオーナー、開発者にとっての生産効率の利点を説明した上で、読者にAIが「チームメンバー」としてスクラムチームに「シームレスに統合されていることを想像する」よう呼びかけた。Thoughtworks社のAIアシストソフトウェアデリバリーのグローバルリードであるBirgitta Böckeler氏も最近、「Exploring Generative AI」と題した記事を発表し、エンジニアリングシナリオにおけるLLM(大規模言語モデル)の使用を含む実験に関する洞察を共有した。同実験においては、LLM(大規模言語モデル)がソフトウェアデリバリーチームに相乗効果をもたらしている可能性がある。
-
Mistral AI、3つのオープンウエイト言語モデルをリリース
Mistral AIは3つのオープンウェイト言語モデルをリリースした:12Bパラメータの汎用LLM「Mistral NeMo」、7Bパラメータのコード生成モデル「Codestral Mamba」、数学と推論用に微調整された7Bパラメータのモデル「Mathstral」である。この3つのモデルはすべてApache 2.0ライセンスで提供されている。
-
Google CloudがC4マシンシリーズを発表:高性能コンピューティングとデータ分析
Google Cloudはこのほど、第4世代インテルXeonスケーラブル・プロセッサー(Sapphire Rapids)を搭載した新しいC4マシンシリーズの一般提供を開始したことを発表した。同シリーズは、ハイパフォーマンス・コンピューティング(HPC)、大規模シミュレーション、データ分析など、要求の厳しいアプリケーションのニーズに合わせた幅広い構成を提供する。
-
Amazon MemoryDBがAWSで最速のベクトル検索を提供する
AWSは最近、Multi-AZで利用可能なマネージド・インメモリ・データベースであるAmazon MemoryDBのベクトル検索の一般提供を発表した。この新機能は、AWS上のベクトルデータベースの中でもっとも高いリコール率で、超低レイテンシーと最速のベクトル検索性能を提供する。
-
YouTubeでの音楽レコメンドにTransformerアーキテクチャを活用
Google社は、現在の生成AIブームの火付け役であるトランスフォーマーモデルを音楽レコメンドに活用するアプローチについて説明した。現在YouTubeで実験的に適用されているこのアプローチは、音楽を聴く際のユーザーの一連の行動を理解し、そのコンテキストに基づいてユーザーの好みをより的確に予測できるレコメンダーを構築することを目的としている。
-
Microsoft .NET Conf:Focus on AI
先月、.NET Conf: Focusの2024年最新版が開催され、AI開発のトピックが取り上げられた。このイベントは、あらゆるレベルの開発者を対象とし、.NETエコシステムでの人工知能の使用方法を紹介する情報セッションとハンズオン・セッションの両方が行われた。このイベントは、フォーカス・シリーズの中でも最も技術的なイベントの1つで、質の高い、深く掘り下げたセッションが数多く行われた。
-
ソフトウェア・チームのストリームアラインド、プラットフォーム兼任化による生産性の向上
増加する仕事量を効率的に管理し、品質と効率を維持するために、あるソフトウェア・チームはストリーム・アラインドとプラットフォームの2つの目的を持つことにした。エンドユーザーに迅速に価値を提供し、チームの成果を安定的に維持するために、彼らはメインアプリケーションをAPIファーストに書き換え、顧客向け製品にマイクロリリースを導入した。Marion Løken氏は、NDCオスロで彼女のソフトウェア・チームが経験した変化について語った。
-
NVIDIA NIM、Hugging Faceで推論サービスとして利用可能に
Hugging Faceは、NVIDIA NIMによる推論サービスの提供開始を発表した。今回の新サービスで、開発者は主要なAIモデルのNVIDIAによる高速化された推論に容易にアクセスできるようになる。
-
Meta社、これまでで最大のオープンソースモデルとなるLlama 3.1 405Bをリリース
Meta社は最近、最新の言語モデルLlama 3.1 405Bを発表した。このAIモデルは、8Bと70Bバージョンも含む新しいLlamaモデルの中で最大のものである。4,050億のパラメータ、15兆のトークン、16,000のGPUを持つLlama 3.1 405Bは、様々な印象的な機能を提供する。
-
Alibaba、数学と音声チャット用の2つのオープンウェイト言語モデルをリリース
Alibabaは2つのオープンウェイト言語モデルファミリーをリリースした。Qwen2-Math は数学の問題を解くために調整されたLLMで、Qwen2-Audio は音声やテキスト入力を受け付けるマルチモーダルLLMである。両ファミリーはAlibabaのQwen2 LLMシリーズをベースにしており、Qwen2-Mathの最大バージョンを除くすべてがApache2.0ライセンスで提供されている。