BT

最新技術を追い求めるデベロッパのための情報コミュニティ

寄稿

Topics

地域を選ぶ

InfoQ ホームページ ニュース OpenAI、不正な超知能AIに対応する専門チーム「Superalignment」の結成を発表

OpenAI、不正な超知能AIに対応する専門チーム「Superalignment」の結成を発表

 

OpenAIは、不正な超知的AIの出現を防ぐことを目的とした専門チーム「Superalignment」の結成を発表した。OpenAIは、AIシステムを人間の価値観に合わせる必要性を主張し、潜在的な危害を防ぐための事前対策の重要性を述べた。

人間の理想や目的に沿ったAIシステムを構築する過程を、AIアライメントと呼ぶ。これは、AIシステムが道徳的概念、社会的規範及び、人間の目的を理解し適切な行動をとるように設定することである。AI アライメントは、人間のニーズや幸福とAIシステムの目標との間のギャップを解消する狙いがある。人間の価値観と結びつけることで、AIのリスクを減らし、潜在的な強みをさらに広げることができる。

OpenAIのSuperalignmentチームは、AIシステムが人間の価値観や目標に沿った行動を保証するアライメントの理解と実装に重点を置く。強固なアライメント技術を研究・開発することで、開発期間中も有益でアライメントが保たれるAIシステムの実現を目指している。

我々の目標は、4年以内に超知能の連携に関する基本的な技術面における課題を解決することだ、とOpenAIは述べている。

OpenAIの共同設立者でチーフ・サイエンティストのIlya Sutsker氏とアライメント責任者のJan Leike氏によると、ChatGPTを支えるGPT-4のようなモデルで利用されている既存のAIアライメント技術は、人間のフィードバックによる強化学習に依存している。しかしながら、AIが人間の知能を凌駕した場合、AIが人間を出し抜き、人間による監視が不可能になる恐れがある。さらに、整備中の良い汎化特性やモデルが学習中に監視を弱体化できないなど、その他にも将来破綻することが出てくる可能性を説明した。

AIの安全性に関する領域は、これから重要な産業として発展していくと予想される。世界各国の政府は、データプライバシー、アルゴリズムの透明性、倫理的配慮など、AIのさまざまな側面に対応する規制の整備に取り組んでいる。欧州連合(EU)は包括的な人工知能法(Artificial Intelligence Act)の制定に向けて動いており、アメリカでもAI権利章典(Blueprint for an AI Bill of Rights)の策定を進めている。また、イギリスではAIの安全性に関する懸念を調査するために、基盤モデルAIタスクフォースが設立されている。

作者について

この記事に星をつける

おすすめ度
スタイル

BT