BT

最新技術を追い求めるデベロッパのための情報コミュニティ

寄稿

Topics

地域を選ぶ

InfoQ ホームページ ニュース ChatGPTは何にでも適用可能か?アラン・チューリング研究所のフェローがDevoxx UK基調講演でチェックリストを発表

ChatGPTは何にでも適用可能か?アラン・チューリング研究所のフェローがDevoxx UK基調講演でチェックリストを発表

 

アラン・チューリング研究所の倫理フェローであるMhairi Aitken氏は、Devoxx UKの基調講演で、AIが人の言語の複雑さを処理するときの限界についてゲール語由来の自分の名前をAIが誤って発音したことを例にあげて語った。彼女はまずアラン・チューリング研究所で、社会における大規模言語モデルの社会的・倫理的リスクの予測に焦点を当てて研究していることを説明した。また、それらのリスクをどのように最小化できるか、そして責任を持って設計・開発された場合にデータやAIが社会全体に提供できる価値を理解しようと努めている。

最初にAitken氏はChatGPTを知らない少数のオーディエンスむけにChatGPTについて簡単に説明した。

ChatGPTはかなり高度に洗練された予測テキストプログラムの一種。私の名前のスペルを正しく書けない携帯電話の入力予測機能のようなものである。人間の言語の膨大なデータセットをもとに構築された大規模言語モデル(LLM)をベースにしており、人間の言葉を真似てその言葉のパターンを認識し、どのような言葉の組み合わせが説得力のある返答になるかを予測するようにトレーニングされているのだ。

ChatGPTはインターネット上の情報でトレーニングされており、GPT-3.5とGPT4の登場によりAIのブレークスルーに関するニュースが1日に何度も届くようになった。カスタマーサポートや法律・医療に関するアドバイスから、俳句や詩、あるいは出会いデートアプリのウィットに富んだキャッチーなセリフの執筆まで、様々な業種でLLMのメリットの紹介が急がれている。そしてもう一つの驚くべき能力はコードを生成したり分析して欠陥を見つけたりすることだ。

どんな業界のコンテンツでも、またそのコンテンツに説得力があったとしても「それらの言葉や構文が何を意味するのか、まったくわからない(中略)それらの言葉の文脈や意味を理解する方法がまったくない。つまりスタイルだけで中身がない。」と、Aitken氏は述べている。

ChatGPTはいわば新しいシステムのための基盤だ。LLMはAIにおける基盤モデルであり、特定のタスクや機能を想定しておらず膨大なデータセットでトレーニングされている。にもかかわらず汎用的な目的のためにトレーニングされているのでさまざまな目的に応用できる。それゆえにLLM上のソフトウェアを使うユーザーは、内部に何があるのか知らない可能性が高い。Aitken氏は、建築に例えて、まず土壌を検査して目的にあった基礎を築いてからその上に建物を建てるべきと、語気を強めた。

alt

どのような情報を元にしているのか?

偏ったデータや不完全なデータでトレーニングされたAIのモデルは偏った結果や不完全な結果を招く。LLMについても同じことが言える。ChatGPTがインターネット上でトレーニングされた事実を受けて、インターネットがどれだけ社会を映し出しているのか、私たちは自問自答しなければならない。インターネットの視点は非常に偏った世界観であり、経済的にも政治的にも声の大きい意見が優勢である。マイノリティ集団の声は届きにくい、とAitken氏は述べる。

モデルは目的に合っているのか?このような特殊な条件にあわせて設計されているか?極端な状況に耐えられるか?

「汎用的な建築物の基礎が、住宅や病院、刑務所といった建物でも同様に利用に耐えられるのか?」と、Aitken氏はさらに建築のモチーフを用いて尋ねた。LLMは特定の領域について検討されたものではないので、適用する領域特有の感度とリスクを考慮しなければならない。私たちが興味を持っている特定の業界にとって、目的に合っているかどうかを自問しなければならないのだ。建築であれば地震やハリケーン、火災に耐えられるかどうか、LLMの場合サイバー攻撃や悪意ある行為に耐えられるかどうか、を理解するべきなのだ。

倫理的な労働環境で開発されているか?

ChatGPTは、そのmoderation APIに依存しており、ある程度、有害または危険な結果を生み出すことを防いでいる。Time誌はAPIの解釈にケニアの労働者が「考え得るもっとも有害なコンテンツ」にさらされたと述べている。彼らはコンテンツのラベリングをしている間、保護されることなく長時間働いていた。

このモデルの環境負荷はどうなっているのか?

たとえそれが知覚できないものであっても、LLMが与える環境負荷は大きい。Aitken氏は、ChatGPTのトレーニングによって発生するCO2の量は、自動車を月まで往復させるのに匹敵するという試算を引用している。これはトレーニングだけで改良やメンテナンス、運用は含まれていない。「そのために使う価値があるのか、ないのか、考えてみてください。」とAitken氏は呼びかける。

AIシステムは、常にプログラムされたことを実行する。私たちは、多くのことをさらに高度に行えるようにプログラミングしている。しかしChatGPTが人間の創造性や問題解決能力を代替することはありません。

Aitken氏は、AIに対する熱狂と反比例して、AIが複数の仕事を陳腐化させるのではないかという懸念や、ある界隈ではAIが世界を破壊するのではないかという懸念が膨らみつつあると述べた。彼女の答えはいずれの懸念に対しても「ノー」であり、その理由はAIが与えられた文脈に縛られるから、というものだった。たとえ素晴らしいコンテンツを生成するとしても、それはトレーニングデータが素晴らしいものだったからであり、AIが個人の問題解決力や創造性、感情的な知性を代替できることはない。とはいえ基盤モデルの実用的・技術的な限界に目を向け、倫理的・社会的な配慮に導かれながら、責任あるアプローチでAIと関わることが開発者が認識すべき責任であると強調し、「建物を建てる前に基礎を点検することだ!」と述べて基調講演を締めくくった。

作者について

この記事に星をつける

おすすめ度
スタイル

特集コンテンツ一覧

BT