InfoQ ホームページ プログラミング に関するすべてのコンテンツ
-
Google CloudのAI Protection:AIアセットを保護するためのソリューション
Google Cloudは最近、生成AIに関連するリスクや脅威から保護する包括的なソリューション、AI Protectionを発表した。
-
IBM社、Granite 3.2で新たな視覚言語モデル、思考連鎖推論、時系列モデル強化を実装
IBM社は、マルチモーダルと推論機能を搭載したGranite 3.2の最新モデルを発表した。。Granite 3.2の特徴は試験的に導入された思考連鎖推論機能であり、従来モデルを大きく上回る性能を発揮している。新たな大規模視覚言語モデル(VLM)は、いくつかのベンチマークスコアでより大型のモデルを凌駕しているほか、小型モデルより効率的なデプロイを実現している。
-
Mistral AIがアラビア語と南インドの言語に対応した地域言語モデルのSabaを発表
Mistral AIは、アラビア語といくつかのインド言語、特にタミル語のような南インド言語のAIパフォーマンスを向上させるために設計された240億パラメータ言語モデルである、Mistral Sabaを発表した。必要とされる地域的コンテキスト理解を欠く恐れのある汎用モデルとは異なり、Mistral Sabaは中東や南アジアで収集しキュレートされたデータセットで訓練されており、言語文化的により正確な応答を提供している。
-
インタラクション・ネットに基づく新しいプログラミング言語Vine
Vineプログラミング言語はインタラクション・ネットに基づいて構築された新しい実験的言語である。関数型プログラミングパターンと命令型プログラミングパターンの相互運用性を特徴としている。
-
Googleの画像生成モデルImagen 3がFirebaseのVertex AIでプレビューとして利用可能に
Googleのもっとも先進的な生成AI画像生成モデルImagen 3が、FirebaseのVertex AIでプレビュー利用可能になり、KotlinとSwift SDKを使用してAndroidとiOSアプリにシームレスに統合できるようになった。
-
Hugging FaceがGPU全体の効率的LLMトレーニングに関するガイドを公開
Hugging FaceがUltra-Scale Playbook: Training LLMs on GPU Clusters、GPU クラスター全体で大規模言語モデル(LLM)をトレーニングする際の方法論と技術について詳細に探究するオープンソースのガイドを公開した。このプレイブックはスループット、GPU利用率、トレーニング効率の最適化に焦点を当て、最大512GPUを使用して実施された4000以上のスケーリング実験に基づいている。大規模モデルトレーニングに取り組む研究者やエンジニアに実践的なガイダンスを提供することを目的としており、再現可能なベンチマーク、実装の詳細、パフォーマンス最適化を提供している。
-
Azure AI Foundry Labs:マイクロソフトにおける最新のAI研究と実験のハブ
マイクロソフトはこのほど、最新のAI研究と実験を開発者、スタートアップ、企業に提供するためのハブ「Azure AI Foundry Labs」を立ち上げた。同社は、画期的な研究と実世界でのアプリケーションとのギャップを埋め、開発者が新たな可能性を探求可能にするために、このサービスを開始した。
-
Google DeepMindが長期的疾病管理向けにAMIEを強化
Google DeepMindは長期的な疾病管理をサポートするためにArticulate Medical Intelligence Explorer(AMIE)の機能を診断以外にも拡張した。このシステムは現在、臨床医が複数回の患者の受診にわたって病気の進行を監視し、治療を調整し、臨床ガイドラインの遵守を支援するように設計されている。
-
ソフトウェアアーキテクトが日常業務で人工知能をどのように活用しているか
ソフトウェアアーキテクトやシステム・アーキテクトがすぐに生成型人工知能(AI)や大規模言語モデル(LLM)に取って代わられることはないだろう、とAvraham Poupko氏は述べている。彼らは生成型AIとLLMを活用する方法を知っているソフトウェアアーキテクトに置き換えられるだろう、そして同時に重要なのは、生成型AIを使用すべきでない場面を知っていることだ。
-
OpenAIがソフトウェア開発ベンチマークを発表
OpenAIは、実世界のフリーランスのソフトウェア開発タスクで先進的なAI言語モデルの能力を評価するためのSWE-Lancerベンチマークを発表した。このベンチマークはUpworkから提供された1,400以上のタスクのデータセットを使用しており、その総額は100万ドルである。これらのタスクには独立したコーディング活動と管理的意思決定の両方が含まれ、複雑さと報酬の範囲が実世界のフリーランスのシナリオをシミュレートするように設計されている。
-
DeepSeek、OpenAIのo1モデルに匹敵する性能を持つDeepSeek-R1 LLMをオープンソース化
DeepSeekは推論能力を向上させるために強化学習(RL)でファインチューニングされたLLM、DeepSeek-R1をオープンソース化した。DeepSeek-R1はMATH-500やSWE-benchを含むいくつかのベンチマークで、OpenAIのo1モデルと同等の結果を達成している。
-
ライセンス変更後にルールセットを自由化するため、OpengrepがSemgrepをフォーク
JITとOrca Securityを含むソフトウェア企業のコンソーシアムはOSSバージョンで提供されるルールに関するライセンス変更への対応として、SemgrepのオープンソースソフトウェアをフォークしたOpengrepをローンチした。
-
GitHub ActionsがLinux ARM64ホストランナーをパブリックプレビューで追加
GitHubは最近、GitHub Actions用のLinux arm64ホストランナーのパブリックプレビューを発表した。パブリックリポジトリでは無料で、このアップデートにより、開発者は Arm ベースのアーキテクチャでソフトウェアを構築およびテストするためのより効率的なツールを利用できるようになる。
-
GitHub Copilot拡張機能はIDEと外部サービスを統合
現在一般提供されているGitHub Copilot 拡張機能により、開発者はIDEを離れることなく自然言語を使用してドキュメント照会し、コード生成し、データ取得し、外部サービス上でアクションを実行できる。Docker、MongoDB、Sentryなど多くの企業が公開している拡張機能を利用できるほか、開発者は内部ライブラリやAPIと連携するための独自の拡張機能を作成することもできる。
-
Azure AIエージェントサービスがAI Foundry SDKとポータルで開発者向けパブリックプレビュー開始
マイクロソフトは先日、Azure AIエージェントサービスのパブリックプレビューを発表し、Azure AI Foundry SDKと Azure AI Foundryポータルで利用できるようになった。