InfoQ ホームページ explainable_ai に関するすべてのコンテンツ
ニュース
RSSフィード-
説明可能なAIとインパクト分析による倫理的機械学習
より多くの意思決定が機械によってなされたり、影響を受けたりするようになるにつれ、人工知能の倫理規範の必要性が高まっている。主な疑問は、"作ることはできるが、作るべきか?"である。説明可能なAIは、公平性と説明可能性のチェックとバランスを提供でき、エンジニアはシステムが人々の生活や精神衛生に与える影響を分析ができる。
-
責任あるAI ~ 原則から実践へ
QCon Londonカンファレンスにおいて、マイクロソフトのプリンシパルプロダクトマネージャーであるMehrnoosh Sameki氏が"責任あるAI ~ 原則から実践へ"と題して講演した。彼女は責任あるAIの6つの主要な原則と、これらの原則を実践するために不可欠な4つの要素について説明し、Fairlearn、InterpretML、責任あるAI Dashboardなどの有用なツールを紹介した。
-
Allen Institute for AI、AIモデル検査ツール”LM-Debugger”をオープンソースとして公開
Allen Institute for AI(AI2)は、言語モデル(LM)の予測出力を解釈し制御する、対話型ツールのLM-Debuggerをオープンソースとして公開した。LM-DebufferはすべてのHuggingFace GPT-2モデルを対象に、モデルのニューラルネットワークの隠れ層(hidden layer)の更新をダイナミックに修正することにより、ユーザのテキスト生成プロセスへの介入を可能にする。