InfoQ ホームページ プログラミング に関するすべてのコンテンツ
-
AWS re:Invent 2024のハイライト:Aurora DSQLからAmazon Novaへ
2024年のre:Inventがラスベガスで閉幕した。予想通り、AIは会議の重要な焦点であり、Amazon NovaとSagemakerの新バージョンはもっとも重要なハイライトの一つであった。しかし、コミュニティでもっとも興奮を呼んだ発表は、アクティブ・アクティブな高可用性を備えたサーバーレス分散SQLデータベース、Amazon Aurora DSQLのプレビューだった。
-
Vite 6リリース:新しいEnvironment APIがエッジユースケースをサポート
Viteチームは最近、Vite 6を発表し、これを重要なメジャーリリースと位置付けた。Vite 6は、フレームワーク作者を対象にした機能であるEnvironment APIを導入している。Environment APIを使用することで、作者はエッジデプロイメントケースをサポートし、開発体験を本番環境に近づけることが可能だ。
-
主要な大規模言語モデル(LLM)が、隠れた目標を追求する能力を持つことが判明
AI安全性の研究組織Apollo Researchの研究者たちは、AIエージェントが密かに誤った目標を追求し、本当の目的を隠す可能性があることを発見した。この行動はイン・コンテキスト・スキーミングとして知られ、LLMが明示的に欺瞞的な戦略を考慮し、それを実行可能と見なしているため、偶然ではないようだ。
-
DeepSeekが新たなオープンソースAIモデル、Janus Proをリリース
DeepSeekはマルチモーダルモデルJanusのアップデート版、Janus-Proをリリースした。新モデルはトレーニング戦略、データスケーリング、モデルサイズを改善し、マルチモーダル理解とテキストから画像への生成能力を向上させている。
-
Metaがスケーラビリティを向上させたByte Latent Transformer LLMをオープンソース化
Metaはトークナイザーの代わりにバイトのパッチを処理する学習済み動的スキームを使用するLLMアーキテクチャByte Latent Transformer (BLT)をオープンソース化した。これにより、BLTモデルはLlama 3モデルと同等の性能を50%少ない推論FLOPSで実現できる。
-
QCon London 2025 Trainingでマイクロサービス、LLM、チームトポロジーにディープダイブする
19回目を迎えるQCon London 2025は、3日間のテクニカルセッション(4月7日~9日)だけでなく、それ以上のものを提供する。参加者は、シニア開発者、アーキテクト、チームリーダーのための実践的で詳細な学習体験を提供するように設計された2日間のオプショナルトレーニングデイ(4月10日〜11日)を受講できる。これらのセッションは、重要なソフトウェア開発トピックを深く掘り下げ、上級実践者の指導のもとでスキルを磨く絶好の機会だ。
-
2024年のデータベース:成長、変化、論争
昨年のトレンドと革新を網羅した、Andrew Pavlo氏によるデータベース界の年次回顧が最近公開された。オピニオンレポート「2024年のデータベース: 年間レビュー」は、私たちが確かに「データベースの黄金時代」にいる一方で、昨年は重要なライセンス変更、DuckDBの急速な成長、そしていくつかの驚くべき新リリースがあったことにフォーカスしている。
-
Netflixがレジリエンシー向上のためにサービスレベルで優先順位付き負荷制御を提供開始
Netflixはシステムのレジリエンスをさらに向上させるために優先順位付き負荷制御の実装を個々のサービスレベルに拡張した。このアプローチは、障害分離のために個別クラスターを維持する代わりに、必要な場合にのみ優先度の低いリクエストを制御することでクラウド容量をより効率的に使用する。
-
Amazon、SAP HANAワークロード向けのハイメモリ EC2 U7inh インスタンスを強化実装
先日AWSは、Hewlett Packard Enterprise(HPE)社と共同開発した新たなAmazon Elastic Compute Cloud(EC2)ハイメモリU7inh インスタンスの 一般提供(GA)を発表した。このインスタンスは、SAP HANAなどのミッションクリティカルな大規模インメモリデータベースワークロードをサポートするように設計されている。
-
OpenSilver 3.1がXAMLクロスプラットフォームデザイナーをもたらす
OpenSilver3.1の最新バージョンは、マイクロソフトの廃止されたSilverlight Web アプリケーション・フレームワークのリメイクで、7月にリリースされたビジュアル・デザイナーをWindows以外のプラットフォームにも拡張した。また、.NET 9のサポートやWPF特有の機能も含まれている。
-
DeepSeekがDeepSeek-V3をオープンソース化、671BパラメータのMixture of Experts LLM
DeepSeekは671Bパラメータを含むMixture of Experts (MoE) LLM、DeepSeek-V3をオープンソース化した。2.788M GPU時間を使って14.8Tトークンで事前学習され、MMLU、MMLU-Pro、GPQAを含む様々なLLMベンチマークで他のオープンソースモデルを上回る性能を示している。
-
Google、実験的なAI推論モデルをリリース
GoogleはAI Studioプラットフォームで利用可能なAI推論モデル Gemini 2.0 Flash Thinking Experimentalを発表した。この実験的なモデルは、複雑な問題を推論することでプログラミング、数学、物理学などのマルチモーダルタスクを処理するために設計されており、その思考過程を説明することができる。これはGemini 2.0 Flashモデルを基に構築されており、OpenAIのo1を含む類似モデルと整合している。
-
HuatuoGPT-o1: AIによる複雑な医療推論の進展
香港中文大学深圳校と深圳ビッグデータ研究所の研究者は、複雑な医療シナリオにおける推論を改善するために設計された医療用大規模言語モデル(LLM) HuatuoGPT-o1を発表した。このモデルは新しい2段階の訓練プロセスを使用して開発され、医療専門家が使用する診断アプローチに似た段階的な分析を通じて応答をリファインすることを目指している。
-
EuroLLM-9Bは、欧州言語のための最先端のLLMサポート向上を目指している
EuroLLM-9Bはヨーロッパで構築されたオープンソースの大規模言語モデルで、EUの全公用言と11の非公用語(商業的に重要ではあるが)を含むヨーロッパ言語向けに調整されている。開発チームによると、その性能は、このサイズのヨーロッパ製LLMの中で最高のものだという。
-
Google、Gemini Code Assistがサポート範囲をAtlassian、GitHub、GitLabに拡大
Googleは最近、Atlassian Rovo、GitHub、GitLab、Google Docs、Sentry、Snykを含むGemini Code Assistのサードパーティツールのサポート を発表した。プライベートプレビューにより開発者は広く使用されているソフトウェアツールとパーソナルAIアシスタントの統合を直接IDE内でテストできる。