BT

最新技術を追い求めるデベロッパのための情報コミュニティ

寄稿

Topics

地域を選ぶ

InfoQ ホームページ ニュース

  • DockerがHardened base imagesを発表

    Dockerは脆弱性の低減とコンテナ化アプリケーション用ソフトウェアサプライチェーンのセキュリティ向上のために、本番環境向けの新たなセキュリティ強化型ベースイメージ群を発表した。

  • AWS Lambda、スキーマレジストリ統合によりKafkaイベントに対するネイティブAvroおよびProtobufサポートを獲得

    AWSは、Provisioned ModeでApache Kafkaイベントソースマッピング(ESM)を利用する際に、AWS LambdaでApache AvroおよびProtocol Buffers(Protobuf)形式のイベントに対するネイティブサポートを発表した。同社によると、この機能強化により、AWS Glue Schema Registry(GSR)、Confluent Cloud Schema Registry(CCSR)、および自己管理型Confluent Schema Registry(SCSR)などの人気のあるスキーマレジストリと直接統合することで、効率的なバイナリKafkaイベントの処理が大幅に簡素化される。

  • GPUアクセラレーションによるLLM推論をPure Javaに導入

    マンチェスター大学のBeehive LabがGPULlama3.javaを公開した。これは、Llama3のJavaネイティブ実装として初めて自動GPUアクセラレーションを実現したプロジェクトである。このプロジェクトはTornadoVMを活用し、開発者がCUDAやネイティブコードを記述する必要なく、GPUアクセラレーションによる大規模言語モデル推論を可能にする。これにより、Java開発者が企業環境でAIアプリケーションに取り組む方法を変革する可能性がある。

  • OpenAI、Stargateプロジェクトで世界のパートナー国にAIインフラを構築へ

    OpenAIは、Stargateプロジェクトの一環として「OpenAI for Countries」という新たなイニシアチブを発表した。この取り組みは、民主主義の原則に基づいた各国でのAIインフラ構築を目指している。この拡大計画は、同社が米国でのAIインフラに5000億ドルを投資する初期計画に続くものだ。

  • DockerがHardened Imagesを導入、コンテナセキュリティを強化

    DockerはDocker Hardened Images、ソフトウェアサプライチェーンの脅威から保護するために設計された、エンタープライズグレードでセキュリティ強化されたコンテナイメージのカタログ、をリリースした。Dockerによれば、DevOpsチームが自らコンテナのセキュリティを確保する手間を省くことで、Hardened Imagesはエンタープライズグレードのセキュリティおよびコンプライアンス標準を満たすより簡単な方法を提供する。

  • マイクロソフトがネイティブTypeScriptコンパイラ移植を発表、10倍パフォーマンス向上

    マイクロソフトのTypeScriptチームはTypeScriptコンパイラ(tsc)の実験的ネイティブ移植版、ビルド時間を10倍に短縮し、エディタのコールドスタート時間を大幅に削減し、メモリ使用量を大きく改善することを目的としたtsc-goを発表した。この取り組みはNode.jsランタイムのオーバーヘッドなしにGoで書かれたコンパイラを動かすことを探求するものだ。

  • アクセシビリティの高いウェブサイトを重視すべき理由とその方法

    ウェブアクセシビリティは、障害を持つ人々がコンテンツを利用できるように保証する。Joanna Falkowska氏によれば、アクセシビリティは競争優位性をもたらし、SEOを改善し、基本的人権を支援する。彼女は、WCAG(Web Content Accessibility Guidelines)標準を使用し、開発の初期段階からアクセシビリティをチーム全体の責任として共有することを強調している。これにより、後の段階でのコストのかかる修正を防止する。

  • Visual Studio 2022 v17.14がエージェントモードと高度Copilot支援を導入

    マイクロソフトはVisual Studio 2022バージョン17.14の一般提供を発表、GitHub Copilotコードアシスタントのエージェントモードを含む複数の機能強化を導入した。エージェントモードにより、Copilotはコード編集時に複雑なマルチステップタスクを実行できるようになる。

  • Docker Model RunnerでLLMモデルのローカル実行を手軽に

    今回公開となったDocker Model Runnerでは、AIモデルのローカル環境実行や、ローカル環境にあるAIモデル使用したアプリケーションコードの反復処理が可能になっている。また、作業中にコンテナー内でワークフロー実行を中断する必要もない。現在、Apple Siliconを搭載したMac向けのDocker Desktop 4.40がプレビュー配信中だ。

  • UberのKubernetes上でのRayへの道のり

    Uberは、Rayベースの機械学習ワークロードをKubernetes上で実行するための最近の移行について詳細を発表した。これはインフラストラクチャの進化を示しており、スケーラビリティ、効率性、開発者体験の向上を目指している。Uber Engineeringからの二部構成のシリーズが最近公開され、この移行中に直面した動機、課題、解決策について掘り下げている。

  • Cloudflare グローバルリードレプリケーションを搭載したDIデータベースをアップグレード

    最近のDeveloper Week 2025で、CloudflareはサーバーレスSQLデータベースD1のグローバルリードレプリケーションのベータ版を発表した。これにより、一貫性を損なうことなくグローバルに分散されたオプションが提供される。すべてのリージョンに自動的にプロビジョニングされたレプリカにより、アプリケーションはリクエスト間で強い順序的一貫性を維持しながら、readクエリをより迅速に処理できるようになる。

  • OpenAIがCodexソフトウェアエンジニアリングエージェントのプレビューを発表

    OpenAIはCodexを発表した。これは、コードの作成、デバッグ、テスト、プルリクエストの生成など、一般的な開発タスクを自動化するために設計されたクラウドベースのソフトウェアエンジニアリングエージェントの研究プレビューだ。Codexは、ChatGPTのPro、Team、Enterpriseユーザー向けに統合されており、各タスクはユーザーのコードベースが事前にロードされ、開発環境に合わせて設定された安全なサンドボックス環境で実行されている。

  • Cloudflare AutoRAG、Retrieval-Augmented Generationを効率化

    LLMベースシステムでCloudflareはRetrieval-Augmented Generationを利用するためのマネージドサービスを開始した。現在ベータ版の、Cloudflare AutoRAGは開発者がリッチなコンテキスト��ータをLLMに統合するパイプラインをより簡単に構築できるようにすることを目指している。

  • Amazon QとClaude Codeが開発者CLIをAIで制御可能に

    AWSは最近、高度なエージェント機能を備えたAmazon Q Developer用の拡張CLI(コマンドラインインターフェイス)エージェントを発表した。Amazon BedrockとClaude 3.7 Sonnetの推論機能を利用したこのアップグレードにより、開発者はコンテキストを切り替えることなく、ターミナル内で直接AIと作業可能になる。一方、Anthropic社は研究プレビューとしてClaude Codeを発表した。これはターミナルベースのコーディングアシスタントで、開発者はコマンドラインから直接Claudeを操作できる。

  • CiscoがJARVISを発表:プラットフォームエンジニアリングチームのためのAIアシスタント

    Ciscoのイノベーション部門Outshiftがプラットフォームエンジニアリング・ワークフローを効率化するために設計されたJARVIS 、AI搭載アシスタントを発表した。JARVISは会話型インターフェースを提供、複雑なタスクを簡素化し、実行時間と認知負荷を減少させる。

BT