BT

最新技術を追い求めるデベロッパのための情報コミュニティ

寄稿

Topics

地域を選ぶ

InfoQ ホームページ ニュース アジャイルの世界にAIを適用する

アジャイルの世界にAIを適用する

ブックマーク

原文(投稿日:2019/03/11)へのリンク

人工知能(AI)システムとアジャイルの世界の融合は,我々が構築するソフトウェアの開発方法やプロダクトのあり方に破壊的な影響力を持つ,とAidan Casey氏は言う。マシンラーニングとディープラーニングの組み合わせにより,真に人のように学習するアプリケーションの開発が可能になった。一方で,AIシステムの能力はトレーニングに使用したデータセットによって制限されるため,AIバイアスは非常に深刻な問題である。

Johnson ControlsのソフトウェアエンジニアリングマネージャであるAidan Casey氏は明日,aginext 2019で,これからのアジャイル界を形成し拡大する上で,人工知能の持つ能力をいかに利用するか,という話題について講演する予定である。カンファレンスは3月21日と22日,英国ロンドンで開催される。イベントのWebサイトによると,

Aginextの2日間は,アジャイルとリーン,CICD,DevOps転換の未来で埋め尽くされています。初心者向けではない - どんな人も大歓迎ですが - Aginextは,文化的および技術的変革に新たな活力を感じているあなたのような,経験を積んだアジャイル実践者を支援することに重点を置いた,初めてのカンファレンスなのです。

今回の講演でCasey氏は,AIを搭載した次世代プロダクトが,どのように開発者を核心的なビジネスルールのコーディングから解き放し,現実世界のデータによってトレーニングされたアルゴリズムの構成へと向かわせるのか,という点を探求する。ソフトウェア開発者の位置をバリューチェーンのより高い場所へと移すこの変革は,ソフトウェア開発のあり方を大きく変えることになる。

さらにCasey氏は,ソフトウェアプロダクトの信頼性が,それを動かすデータやアルゴリズムのそれを越えることはできない理由についても説明する予定である。すべてのデータストリームが正確であって,AIシステムによって適切にコンシュームされるようにすることは,ソフトウェア開発に携わるチームにとって最大の関心事だ。Casey氏が言うように,データサイエンスのプラクティスとさまざまなアルゴリズム形式(ベイジアン,ロジスティックなど)に対する一般的な理解が重要なスキルになりつつある。

氏によると,AIバイアスは我々の産業において非常に深刻かつ現実的な懸念であり,真の意味で我々がいまだ把握や対応できていないものだ。AIシステムは,そのすべてが構築されたアルゴリズムの産物であり,バイアスの影響を受けやすい。意図的であるかどうかに関わらず,AIシステムとは,トレーニングに使用したデータセット以上にはなり得ないものなのだ。

アジャイルの世界における人工知能の適用について,Aidan Casey氏にインタビューした。

InfoQ: 人工知能はこれまでに,私たちに何をもたらしてきたのでしょう?

Aidan Casey: 人工知能の分野での研究は1950年代にAlan Turing氏が,自身で考えることのできる機械の創造を夢見たことから始まりました。それから70年後,私たちは今,AIの黄金期の入り口にいるのだと思います。AIの進歩について説明するには,コンピュータが人間と対戦するゲーム分野でのAIについて考えればよいでしょう。ゲームプレイは長い間,思考機械の能力を示し,いかにAIが進歩したのかを測る手段として用いられてきました。

転機が訪れたのは1997年,IBMのDeep Blueが,当時チェスの世界チャンピオンであったGarry Kasparov氏を6ゲーム競技で破った時でした。これを契機に,世界中が思考機械に注目するようになったのです。Deep Blueは,今日のAIの能力水準から考えれば極めて限定的なもので,基本的には,高度に最適化された木検索アルゴリズムを中心に構築された高速コンピュータでした。時は2011年まで進み,IBMのWatsonコンピュータシステムは,テレビのゲームショーであるJeopardyで,最高の成果を挙げていた参加者の2人に勝利したのです!コンテストの間Watsonは,インターネットにアクセスできなかったのですが,その認知的推論と自然言語処理能力は人間を凌駕していました。2017年には,真の汎用ゲームマシンであるAlphaZeroが登場しました。AlphaZeroは教師なし(unsupervised)の強化機械学習(reinforced machine learning)を用いることで,トレーニングと自己対戦によって,チェス,碁,将棋を3日間でマスタしました。70年の長い道のりを歩んで,マシンは今や,多くの思考ゲームにおいて私たちより優れています。

InfoQ: アジャイルチームがよりよい製品を短期間で開発する上で,AIはどのように役立つのでしょうか?

Casey: マシンラーニングは詐欺行為や異常の検出から始まって,ビジネスインテリジェンス,医療研究,セキュリティ,画像認識に至るまで,あらゆる種類のユースケースに適応できます。データ科学者は,私たちの新世界の勇気あるパイオニアなのです。

自然言語処理(NLP)もまた,変革的な影響を製品開発にもたらしています。言語翻訳,感情分析,質問への応答,チャットボット,会話型インターフェースなどが今,ソフトウェアの限界とヒューマンエクスペリエンスが引き継ぐべき場所との境界を曖昧なものにしているのです。

InfoQ: ソフトウェア開発で用いられるプロセスやプラクティス,必要とされるスキルには,どのように影響するでしょうか?

Casey: 顧客に対する継続的な価値提供を目的として,短期間の開発サイクルを採用するアジャイルのアプローチは,認知やAI中心のプロジェクトでも同じように有効です。マシンラーニングモデル構築のようなデータ集約型の開発では,CRISP-DM(cross-industry process for data mining)アプローチに検討の価値があります。このアプローチでは,所定の結果を達成するまで,機械学習モデルの改善と洗練,デプロイを繰り返します。

バックログの絞り込みや機能の優先順位付けなどの開発プロセスは,これまで以上にデータ駆動型の方向に進みます。スマートな自己学習ソフトウェアが登場することで,ユーザの利用パターンや振る舞いに関して,より深い洞察を持てるようになるからです。バックログの優先順位の決定も,精神的なものから,よりデータ主導へと移行するでしょう。

InfoQ: 現在のソフトウェアアプリやシステムに自己学習を採用するには,どのようにすればよいのでしょうか?

Casey: 顧客の質問に対して,自己学習によって事前に準備した回答を提供するチャットボットを,既存の知識ベースサポートに組み合わせたカスタマサービスソフトウェア製品が増えています。これなどは,自己学習機能を試してみるには最適な方法でしょう。

Netflixの映画推奨機能で有名になったレコメンデーションシステムは,ここ数年間で大きく進歩しました。これを既存のシステムに組み入れることで,自己学習機能を簡単に追加することができます。例えば,協調型のフィルタリングシステムでは,フィードバックやレーティング,プリファレンス,機能の使用方法といった形式で,ユーザの振る舞いに関する情報の収集と分析が可能です。この情報に基づくことで,ユーザ間の類似性を活用したユーザレコメンデーションを提案するのです。

InfoQ: AIオペレーションボットは,トラブルシューティングを容易にする上で,どのような支援が可能なのでしょうか?

Casey: githubのオープンソースプロジェクトのhubotなどによって有名になった運用チャットボットの出現は,従来のシステム運用に関するパラダイムを変えました。従来はオフラインで行われていた作業が,slackのようなコミュニケーションツールを使うことで,チャットルームに取り入られています。これによって,開発やテストから,製品のデプロイメントやシステム障害の解決に至るまでのすべてを含む,チームのコミュニケーションが統合されるのです。

もうひとつの興味深いトレンドは,運用ログの分析をベースとしたNLPやマシンラーニングが登場したことです。これによってトラブルシュートや根本原因の分析が,これまでよりもはるかに簡単になりました。イベントログの分析や運用上の正しい対応の分類やクラス分けに,マシンラーニングモデルを使用することができるのです。

InfoQ: AIを適用する上において,倫理面では,どのような問題を考慮する必要があるでしょうか?

Casey: 一般社会において,子供たちを社会のよき一員とするために絶えずフィードバックとガイダンスを与えて,鍛えられた道徳的指針を備えるように育てるのは親の役目です。同じように,AIシステムを設計する場合には,データのコンシュームや処理の方法が倫理的かつ公正であるようにトレーニングする必要があります。

業界として,正しいことが確実に行われるようにするためには,もっと多くの規制が必要です。先日のCambridge Analyticaに関する議論では,より厳密なセキュリティの必要性が浮き彫りになりました。開発が可能であることと,それをすべきかどうかは別の問題なのです。

AIバイアス問題の重要性に関しては,注目すべき事例がいくつかあります。2017年,バージニア大学でコンピュータ科学を教えるVicente Ordóñez教授は,自身が開発中のイメージ認識ソフトウェアの行う推論に,あるパターンがあることに気付きました。キッチンにいる人の写真に対して,すべて女性というタグが付けられていたのです。根本的な原因は,イメージ認識モデルのトレーニングに使用されていた,COCOデータセットというオープンソースのデータセットにあることが分かりました。このデータセットでは,スプーンやカップといった台所用品の大部分が女性と並べて描かれていたため,これによってバイアスが生じていたのです。

不公正にトレーニングされたAIシステムは,既存のバイアスを強化する可能性があります。これは私たちの業界が直面している,最も大きな課題のひとつです。AIバイアスを避ける上で重要なのは多様性(diversity)です。多様性のある,公正なデータセットでAIシステムをトレーニングする必要があります。同じようにデプロイメントチームにも,バランスを持ったAIシステムを開発する上で多様性が必要です。

この記事に星をつける

おすすめ度
スタイル

こんにちは

コメントするには InfoQアカウントの登録 または が必要です。InfoQ に登録するとさまざまなことができます。

アカウント登録をしてInfoQをお楽しみください。

HTML: a,b,br,blockquote,i,li,pre,u,ul,p

コミュニティコメント

HTML: a,b,br,blockquote,i,li,pre,u,ul,p

HTML: a,b,br,blockquote,i,li,pre,u,ul,p

BT