InfoQ ホームページ プログラミング に関するすべてのコンテンツ
-
SpotifyはSidekickのLLMチャットボットをどのように改善したか?
Large Language Model (大規模言語モデル、LLM)チャットボットにより革新的なソリューションへの扉が開かれる中で、SpotifyのエンジニアであるAtes Goral氏は、ユーザーエクスペリエンスを可能な限り自然なものにするために、レンダリングジャンクを防ぎ、待ち時間を減らすための具体的な取り組みが必要であると主張している。
-
OpenAI、ビジネスに特化したChatGPT Enterpriseを発表
OpenAIは、エンタープライズグレードの保護とプライバシー、より高速でのGPT-4無制限アクセス、より長い入力を処理するための拡張コンテキストウィンドウ、追加のデータ分析機能、カスタマイズの可能性などを提供するChatGPT Enterpriseを発表した。
-
Micronaut 4.0.0はJava仮想スレッド、GraalVMのサポートとHTTP/3の実験的機能を搭載
Micronaut財団はこのほど、Micronautフレームワーク4.0.0の一般提供(GA)リリースを発表した。このメジャーリリースは、人気のあるJVMベースのフレームワークに多数のアップデートと改善をもたらし、そのパフォーマンス、モジュール性、他の技術との互換性を強化する。
-
ハイパフォーマンス・コンピューティング・ワークロードのための新しいGoogle Cloud H3仮想マシンシリーズがプレビューされる
Googleは最近、高性能コンピューティング(HPC)ワークロード向けに設計された新しいH3仮想マシン(VM)シリーズを発表した。同シリーズのVMは、Compute EngineおよびGoogle Kubernetes Engine(GKE)ユーザー向けにパブリックプレビュー版が提供されており、88コア(同時マルチスレッド無効)と352GBのメモリを搭載している。
-
Mojoプログラミング言語の紹介
Mojoは、PythonのシンプルさとRustのスピードとメモリの安全性を組み合わせた、新しく発表されたプログラミング言語である。開発の初期段階にあり、その機能を探求するためのオンラインプレイグラウンドをユーザーに提供している。Mojoはデータサイエンスと機械学習における卓越性を目指しており、Pythonに代わる高速な言語を提供する。オープンソース化も徐々に計画されている。
-
Spring Boot 3.1におけるテストコンテナと開発時コンテナのサポートの強化
スタンドアロンでプロダクショングレードのアプリケーションを構築する人気のJavaベースのフレームワークの最新バージョンであるSpring Boot 3.1では、開発時コンテナのサポートが改善された。この新機能は、SpringのデベロッパーアドボケイトであるJosh Long氏が、自身のYouTubeチャンネル「Coffee + Software with Josh Long」で行ったライブ配信で話題になった。また、Spring公式サイトのブログ投稿の 「Spring Boot 3.1'sConnectionDetails abstraction 」では、この新機能についてさらに詳しく説明している。
-
Jupyter NotebookにジェネレーティブAI機能を搭載
オープンソースのProject Jupyterは、Jupyter Notebookに強力なジェネレーティブAI機能をもたらす無料ツールJupyter AIをリリースした。
-
AI、ML、データエンジニアリングニュースまとめ:Jupyter AI、AudioCraft、OverflowAI、StableCode、Tabnine
2023年8月7日までの記事で、人工知能、機械学習、データ・サイエンスの分野における重要な成果やリリースが紹介されている。今週の主なニュースは、Jupyter、Meta AI、Stack Overflow、Stability AI、Tabnineに関するものだった。
-
ReSharperにAIアシスタント機能を搭載
JetBrains社は、Microsoft Visual Studio用の開発者向け拡張機能であるReSharperのAI搭載バージョンをリリースした。リリースされたReSharper 2023.2はAIを搭載した最初のバージョンとなる。
-
継続的な実験文化: QConニューヨークからの学び
QCon New York 2023でSarah Aslanifar氏は継続的な実験文化の構築を発表した。彼女は、継続的な実験の文化を育み、継続的な学習の原則を活用することで、いかに効率を高め、無駄を省き、製品の成果を向上できるかを示したのである。
-
Cadence1.0:Uberがスケーラブルなワークフロー・オーケストレーション・プラットフォームをリリース
Uberは6年間の開発期間を経て、Cadenceと名付けられたワークフロー・オーケストレーション・プラットフォームのメジャーバージョンをリリースした。Uberや他の企業は、ネイティブのプログラミング言語を使ってステートフルなサービスを大規模に構築するためにCadenceを使用している。チームは、使いやすさ、オブザーバビリティ、効率性の向上を目標に次のリリースに取り組んでいる。
-
Googleの音声AI AudioPaLMが音声転送で翻訳を行う
Googleの研究者は、音声転送によるテキスト音声変換 (TTS)、自動音声認識(ASR)、音声翻訳(S2ST)を行う大規模言語モデル(LLM)であるAudioPaLMを発表した。AudioPaLMはPaLM-2 LLM をベースにしており、翻訳ベンチマークではOpenAIのWhisperを上回っている。
-
Graviton3Eプロセッサーを搭載した最初のAmazon EC2インスタンスがGA(一般提供)に
AWSは最近、新しいGraviton3Eプロセッサを採用したC7gnインスタンスとHpc7gインスタンスの一般提供を発表した。C7gnインスタンスはネットワーク集中型のワークロード向けに設計されており、Hpc7gインスタンスはハイパフォーマンス・コンピューティング向けに調整されている。
-
LinkedIn、マイクロサービス統合にプロトコルバッファを採用し、レイテンシを最大60%削減
LinkedInは、プラットフォーム全体でマイクロサービス間のデータ交換を効率化するためにProtocol Buffersを採用し、オープンソースのRESTフレームワークであるRest.liと統合した。全社的な展開後、レイテンシを最大60%削減し、同時にリソース利用率も向上した。
-
AWS、AI/MLおよびHPCワークロード向けAmazon EC2 P5インスタンスの一般提供を開始
AWSはこのほど、AI/MLおよびHPCワークロードで高いパフォーマンスとスケーラビリティを必要とするユーザー向けに、最新のNVIDIA H100 Tensor Core GPUを搭載したAmazon EC2 P5インスタンスの一般提供(GA)を発表した。今回のGAは、先に発表されたインフラストラクチャの開発に続くものである。