InfoQ ホームページ Infrastructure に関するすべてのコンテンツ
-
信頼できるハードウェアの構築は可能か - Andrew Huang氏の36C3での講演より
Andrew "bunnie" Huang氏は先頃の36C3で、ブログ記事"Can We Build Trustable Hardware?"の内容をテーマに、"ハードウェアの信頼性問題はオープンソースでは解決できない(Open Source is Insufficient to Solve Trust Problems in Hardware)"と題した講演を行った。講演の中心は、ハードウェアとソフトウェアではTOCTOU(Time-of-Check to Time-of-Use)の意味が大きく違っているため、脅威モデルにおける数々の潜在的攻撃の緩和にはさほど有用ではない、という主張だ。
-
Twitterが実現した、決定論的ロードバランシングアルゴリズムによるリソース利用の改善
Twitterは先頃、自社のRPCフレームワークであるFinagleに、マイクロサービスアーキテクチャに決定論的アパーチャアルゴリズム(deterministic aperture algorithm)を使用したクライアントサイドロードバランシング機能を実装した理由の詳細を発表した。さまざまな試験を行った結果、要求の分散が良好であること、接続数を大幅に削減できること、必要なインフラストラクチャが少ないことなどの理由から、同社は決定論的アプローチを採用したのだ。
-
AmazonがAWS Outpostsをリリース、ハイブリッドデータセンタアーキテクチャを可能に
先日のブログ記事でAmazonは、AWS Outpostsのリリースを発表した。シングルベンダによるコンピュートおよびストレージソリューションの持つメリットを、AWSユーザに提供するものだ。Outpostsは、アーキテクチャ的にはAmazonのパブリッククラウドコンピュートアーキテクチャに基いているが、ユーザ自身のデータセンタにホストされるシステムである。このソリューションによってユーザは、AWSテクノロジのメリットを享受しながら、ローカル処理という要件への対処が可能になる。
-
DT OneにおけるセルフマネージドKubernetesの高可用性の実現
モバイルトップアップ(top-up)とリワード(reward)の世界的なソリューションプロバイダであるDT oneのエンジニアリングチームが、Hetzner(訳注:ドイツのホスティング会社)のホスティングプラットフォーム上に展開した同社のセルフマネージドKubernetesクラスタイングレスを対象に、IPフェールオーバベースのHA(High Availability)を実装した方法に関する記事を公開した。
-
DatadogがKubernetesで大規模クラスタを実現するまで
DatadogのLaurent Bernauille氏がベルリンのVelocityカンファレンスで、自己管理型Kubernetesクラスタを大規模に運用する際の課題について講演した。Bernaille氏が焦点を当てたのは、レジリエントでスケーラブルなコントロールペーンを設定する方法、証明書(certificate)を高頻度でローテーションする理由と方法、Kubernetesで効率的な通信を実現するためにネットワークプラグインを使用することの必要性、といった話題だ。
-
-
CloudFlareがNetwork Time Securityプロトコルのオープンソース実装をリリース
CloudFlareは、同社のNetwork Time Security(NTS)プロトコルの最初のメジャーリリースを発表した。同社が以前リリースした、Network Time Protocol(NTP)とNTSをサポートする無償のタイムサービズであるtime.cloudflare.comがベースとなっている。
-
データエンジニアリングの未来 - QCon San FranciscoでのChris Riccomini氏の講演より
QCon San Francisco 2919で、Chris Riccomini氏が、"The Future of Data Engineering"と題した講演を行った。おもな内容は、完全に自動化された非集中型データウェアハウスの実現という、データエンジニアリングの最終目標への到達に関するものだ。
-
Microsoftがデータウェアハウスおよび分析サービスのAzure Synapseを発表
年次開催されるIgniteカンファレンスで、Microsoftによる今年の発表のひとつとして、Azure Synapseという新しい分析サービスに関するものがあった。Azure SQL Data Warehouseの後継となるこのサービスは、企業規模のデータウェアハウスとビッグデータ解析をひとつの場所で実現するものだ。
-
Hashicorp、マルチクラウドオートメーションに対応したTerraform Cloudをリリース
先日のブログ記事でHashiCorpは、チームがインフラストラクチャ・アズ・コードのワークフロー管理を行うオープンソースプラットフォームであるTerraform Cloudのフルリリースを発表した。このオーケストレーションはクラウド非依存のツールを介して行われるため、反復可能な自動化による生産性の向上が可能になる。今回の発表は、2019年5月に発表されたRemote State Managementに続くものだ。
-
KubernetesとvSphereを統合したVMWareのProject Pacific
VMWareは、Kubernetesコントロールプレーンを内蔵したvSphereの再設計バージョンであるProject Pacificを発表した。vSphereのインストレーション内で、コンテナと仮想マシンの統合管理を可能にすることがその目標だ。
-
Jagadish Venkatraman氏、LinkedInのSamza 1.0開発を語る
先日のApacheCon North AmericaでJagadish Venkatraman氏は、LinkedInが大規模なストリーム処理を行うためにApache Samza 1.0を開発した経緯について講演した。その中で氏は、兆単位のイベントと数ペタバイトのデータを抱えるLinkedInのユースケースについて説明し、ステートフル処理、高レベルAPI、柔軟な展開モデルといった、1.0リリースで追加された機能を強調した。
-
pacheCon 2019基調講演 - Google CloudによるKubernetesを使用したビッグデータ処理の拡張
ApacheCon North AmericaでChristopher Crosbie氏が、"Yet Another Resource Negotiator for Big Data? How Google Cloud is Enhancing Data Lake Processing with Kubernetes"と題した基調講演を行った。講演の中で氏が強調したのは、Kubernetesクラスタ内でApacheソフトウェアを動作させるためのコントロールプレーンを提供する、オープンソースのKubernetesオペレータを開発することによって、Apacheのビッグデータソフトウェアを"クラウドネイティブ"にするという、Googleの取り組みについてだった。
-
GoogleがHadoopのビッグデータワークロード用にCloud Storage Connectorを公開
Googleは先日のブログ記事で、Cloud Strage Connector for Hadoopを新たに発表した。この新機能によって、従来のHDFSをGoogle Cloud Storageに置き換えることが可能になる。ParquetやORCといったカラムナファイル(Columnar file)形式により、スループット向上の実現が期待されると同時に、Cloud Storageディレクトリの分離、低いレイテンシ、並列性の向上、インテリジェントなデフォルト設定といったメリットを享受することができる。
-
AWSユーザにMLを提供するAmazon Personalizeが一般利用可能に
昨年11月のAWS re:Inventで初めて発表されたAmazon Personalizeが、すべてのAWSユーザを対象に一般公開された。このサービスを使用すれば、マシンラーニングの経験がなくても、パーソナライズされたプロダクトレコメンデーション、検索結果、ダイレクトマーケティングなどのモデルを含む、独自のマシンラーニングモデルをアプリケーションに加えられるようになる。