InfoQ ホームページ プログラミング に関するすべてのコンテンツ
-
OpenAIがDeep Researchを発表:AI支援調査の前進
OpenAIはDeep Research、Web全体にわたる詳細な多段階調査を行うように設計されたChatGPT内の新しいエージェントを発表した。当初はProユーザーに提供され、PlusユーザーとTeamユーザーへのアクセス拡大を計画している。Deep Researchはオンライン情報の取得、分析、統合を行うことで時間のかかる調査を自動化する。
-
Amazon Bedrockがオープンソースフレームワーク統合を取り入れたマルチエージェントシステム(MAS)を導入
Amazon Web Servicesは、Amazon Bedrock向けにマルチエージェントコラボレーション機能をリリースし、複数のAIエージェントが複雑なタスクで協力するためのフレームワークを導入した。このシステムは専門化されたエージェントがスーパーバイザーエージェントの調整の下で協力して作業することを可能にし、分散AIシステムにおけるエージェントオーケストレーションに関する開発者の課題に対処するものである。
-
Git 2.48:Mesonビルドシステムで近代化、メモリリーク修正
Git 2.48はMesonビルドシステム、既存のMakefile、Autoconf、CMakeベースのシステムに代わる近代的な選択肢をサポートするようになった。この変更は、IDE サポートの制限や古いシステムのメンテナンス問題に対処するものだ。
-
Meta社、文章全体の予測を行う言語モデル「Large Concept Model」をオープンソース化
先日、Meta社が、トークンよりも抽象度の高い作業処理用に設計された言語モデルである Large Concept Model (LCM)をオープンソース化した。従来の言語モデルと異なり、LCMは言語やモダリティに依存しない文埋め込み空間を使用しており、多言語を用いた要約タスクでは同サイズのLlama 3.1モデルを上回る性能を発揮している。
-
Hugging FaceとEntalpicがLeMaterialを発表:AIが材料科学を変える
EntalpicはHugging Faceと共同で、材料科学における重要な課題に取り組むオープンソースイニシアチブ、LeMaterialを立ち上げた。LeMaterialは、主要なリソースからのデータを、670万件のエントリーによる調和のとれたデータセットであるLeMat-Bulkに統合することで、材料探索を合理化し、LED、バッテリー、太陽電池などの分野における技術革新の加速を目的としている。
-
Kotlin2.1.0がリリースされ、新しい言語機能やコンパイラのアップデートなどが利用可能に
Kotlin 2.1.0では、ガード条件、非ローカルbreakとcontinue、マルチドル文字列補間などのの新しいシンタックスが導入されている。さらに、マルチプラットフォーム機能の拡張や、K2コンパイラの強化が実施されている。
-
AWSがAmazon Q Developer エージェントに新機能(ドキュメント生成、コードレビュー、ユニットテスト)を追加実装
AWSはこのほど、 AI駆動生成アシスタント「Amazon Q Developer」の機能強化を発表し、ソフトウェア開発プロセスを効率化する新たなエージェント機能を導入した。
-
OpenAIが米国政府機関向けにChatGPT Govを発表
OpenAIはChatGPT Gov、米国政府機関向けに特別に設計されたAI駆動チャットボットのバージョンを発表した。このカスタマイズされたデプロイメントより、連邦、州、地方機関はOpenAIの最新AIモデルにアクセスしながらセキュリティ、プライバシー、コンプライアンスを管理できるようになる。各機関はMicrosoft AzureのコマーシャルクラウドまたはガバメントクラウドでChatGPT Govをセルフホストできるため、厳格な連邦サイバーセキュリティ要件との整合性が確保される。
-
Microsoft Research AI Frontiers LabがAutoGen v0.4ライブラリを発表
Microsoft ResearchのAI Frontiers LabがAutoGen 0.4、先進的なAIエージェントシステムを構築するためのオープンソースフレームワークのバージョン、のリリースを発表した。報告によると最新バージョンはAutoGenライブラリの完全な再設計を特徴としており、コード品質、堅牢性、ユーザビリティ、エージェントワークフローのスケーラビリティの向上に焦点を当てている。このアップデートは、エージェント型人工知能の進展をドライブする強力なエコシステムの確立を目指している。
-
AWS re:Invent 2024のハイライト:Aurora DSQLからAmazon Novaへ
2024年���re:Inventがラスベガスで閉幕した。予想通り、AIは会議の重要な焦点であり、Amazon NovaとSagemakerの新バージョンはもっとも重要なハイライトの一つであった。しかし、コミュニティでもっとも興奮を呼んだ発表は、アクティブ・アクティブな高可用性を備えたサーバーレス分散SQLデータベース、Amazon Aurora DSQLのプレビューだった。
-
Vite 6リリース:新しいEnvironment APIがエッジユースケースをサポート
Viteチームは最近、Vite 6を発表し、これを重要なメジャーリリースと位置付けた。Vite 6は、フレームワーク作者を対象にした機能であるEnvironment APIを導入している。Environment APIを使用することで、作者はエッジデプロイメントケースをサポートし、開発体験を本番環境に近づけることが可能だ。
-
主要な大規模言語モデル(LLM)が、隠れた目標を追求する能力を持つことが判明
AI安全性の研究組織Apollo Researchの研究者たちは、AIエージェントが密かに誤った目標を追求し、本当の目的を隠す可能性があることを発見した。この行動はイン・コンテキスト・スキーミングとして知られ、LLMが明示的に欺瞞的な戦略を考慮し、それを実行可能と見なしているため、偶然ではないようだ。
-
DeepSeekが新たなオープンソースAIモデル、Janus Proをリリース
DeepSeekはマルチモーダルモデルJanusのアップデート版、Janus-Proをリリースした。新モデルはトレーニング戦略、データスケーリング、モデルサイズを改善し、マルチモーダル理解とテキストから画像への生成能力を向上させている。
-
Metaがスケーラビリティを向上させたByte Latent Transformer LLMをオープンソース化
Metaはトークナイザーの代わりにバイトのパッチを処理する学習済み動的スキームを使用するLLMアーキテクチャByte Latent Transformer (BLT)をオープンソース化した。これにより、BLTモデルはLlama 3モデルと同等の性能を50%少ない推論FLOPSで実現できる。
-
QCon London 2025 Trainingでマイクロサービス、LLM、チームトポロジーにディープダイブする
19回目を迎えるQCon London 2025は、3日間のテクニカルセッション(4月7日~9日)だけでなく、それ以上のものを提供する。参加者は、シニア開発者、アーキテクト、チームリーダーのための実践的で詳細な学習体験を提供するように設計された2日間のオプショナルトレーニングデイ(4月10日〜11日)を受講できる。これらのセッションは、重要なソフトウェア開発トピックを深く掘り下げ、上級実践者の指導のもとでスキルを磨く絶好の機会だ。