所属部署 研究第二部 経営グループ
氏名:西田美帆
Trustworthy AI1(信頼されるAI)とは、個人の権利利益の保護などの法適合性、多様性配慮や差別防止などの倫理性、そして技術的な不具合によるリスクを最小限に抑える堅牢(けんろう)性が担保された人工知能(AI)を指します。
AIの普及に伴い倫理的な課題が生じている中、AIの社会受容に不可欠とされる「信頼」の醸成に向け、多くの国・地域でTrustworthy AIの開発が進められています。
近年、AIは加速度的に世界の多くの国・地域でその応用が進み、産業活動や人々の生活の利便性の向上に貢献しています。しかし同時に、その副作用として倫理的な課題をもたらしているのも事実です。例として、2016年に、Microsoft社の人工知能チャットボットTayが攻撃的なツイートを発信する事態が起きました。また2020年には、AIの画像認識技術を活用した米ミシガン州の警察当局によりアフリカ系米国人の男性が誤逮捕されるケースもありました。これらの事例は、AIの機械学習に必要な教師データが不足していたこと、また機械学習システムが情報に偏りのあるチャネルからデータを収集したことによって、推論の精度に差が生じたことが原因です。また、AI に道徳的・倫理的な善悪の判断・精査を行う能力が不足していたことも背景にありました。
このような倫理的課題が顕在化したことを受け、民間の団体や企業、学会を中心に、AI倫理規範やAIの適切な開発・利用を促すガイドラインなどのAIガバナンスの検討が始まりました。2017年には、Skype創設者Jaan Tallinn氏、Tesla創設者のElon Musk氏らが設立した非営利団体The Future of Life Instituteによって、AIの倫理や価値、長期的な課題などを定めた指針「Asilomar AI Principles」が公表されました。また、2018年にはMicrosoftやGoogleなどもAI倫理の基本方針を発表しました。いつの時代も顧客や社会から「信頼」を獲得することが企業の重要課題ですが、ことAIに関わる製品やサービスを取り扱う企業の場合、自ら率先してAI技術に関わる倫理規範や開発の透明性確保など、AIガバナンスを考慮し実践することも不可欠な要素となっています。
近年、AI倫理規範の策定とAIガバナンスの実装に関する議論は、民間・学会レベルから、政府レベルに拡大しています。具体的なAI倫理規範としては、日本の“人間中心のAI社会原則”、欧州(EU)の “Ethics Guidelines for Trustworthy AI”、米国の“Guidance for Regulation of Artificial Intelligence Applications”、中国の“次世代AIガバナンス原則”などがあります(下表参照)。
(参考)表:主なAI規範比較
国・地域 | 日本 | 欧州(EU) | 米国 | 中国 |
---|---|---|---|---|
倫理規範 | 人間中心のAI社会原則 | Ethics Guidelines for Trustworthy AI | Guidance for Regulation of Artificial Intelligence Applications | 次世代AIガバナンス原則 |
共通理念 | ・社会や国民からの「信頼」確保がAIの社会実装の大前提 ・「信頼(法適合性、倫理性、堅牢性)」を担保するAI技術の開発を促進 |
|||
策定背景 | Society5.0の実現 「AI戦略20192」に基づき、Society5.03の実現に向け、社会と人々によるAIの受容と活用を促進し、AIの社会実装を推進するために原則を策定 |
社会・産業インフラ領域牽引(けんいん) 「European Data Strategy4」などに基づき、欧州単一市場の創設や、国際的なルール作りで主導権を握ることで、欧州の競争力強化をめざし策定 |
国家安全保障強化 The American AI initiative6に基づき、国内におけるAI利活用最大化やAI技術力の優位性確保のため、各行政機関を対象にAI関連規範に係る基本方針を策定 |
2030年世界トップのAI大国 「次世代AI発展計画注7」に基づき、AI技術を活用した経済成長や軍民融合を推進、国際的ガバナンスの枠組み・AI技術標準の形成を推進するために原則を策定 |
各種資料を基に日立総研作成
これら各国・地域の規範に共通しているのは、プライバシー、セキュリティ、説明責任など技術的な倫理原則に重点が置かれている点です。一方で、各国の規範の策定背景や狙いでは特徴となる差異点があります。米国は、国家安全保障の観点から主に中国を念頭に置いてAIの技術的優位性の強化を進める一方、中国は2030年までに世界トップのAI大国をめざし技術標準での主導権を狙っているとみられます。また、Society5.0実現で経済成長をめざす日本や、産業・社会インフラ領域におけるデータ・AIの利活用のルール形成で競争力向上に取り組む欧州では、自国産業の競争優位性確保を念頭に、規範の策定が進められています。
AI倫理規範の策定に加えて、規範を有効たらしめる法令など政策ツールや技術的なガイドラインの策定が、各国・地域で推進されています。欧州においては、事業者が“Ethics Guidelines for Trustworthy AI”に準拠した開発を進められるよう、倫理上問題がないかセルフチェックを行うための評価リストを作成しています。米国においては、サンフランコ市などの一部の地域が、基本的人権の尊重を求めるAI倫理規範に照らし、独自の条例を策定し、人種差別を助長し得る顔認証技術の使用を禁止しました。中国では顔を書き換えるディープフェイク技術を活用したアプリケーション開発企業に対し、安全管理局が監視、警告をしています。このように、各国でAI倫理規範に基づくガバナンスが強化されつつあります。
各国・地域の政府機関においてAI倫理規範の策定とそのガバナンスの具体化が進む一方、複数の規範やガバナンス体系が乱立することも懸念されています。AIを活用する企業にとって、国・地域によって求められる対応が異なることでの混乱や管理コストの増加が予想されます。これに対し、国際統一的なAI倫理規範やツールを策定するための国際協力が進展しています。G20は、「G20 AI原則」を発表し、世界的な技術基準の開発に向けて国際協力を進める旨を定め、国際的なイニシアテブ「AIに関するグローバルパートナーシップ(Global Partnership on AI、GPAI)」を通じて、人間中心のAIシステムの責任ある開発・使用とAIガバナンスの促進をめざしています。その具体的な取り組みは、「信頼」の担保の要件として国際的に共有されている指標に基づいて、AI システムを評価する認証・評価・監査メカニズムの開発です。
また、Trustworthy AI の実現には、統一的なAI倫理規範やAIガバナンスのツール開発だけでなく、AI技術そのものの技術的な発展も重要です。現在のAI技術の中心である深層学習(ディープラーニング)は、大量の教師データが必要なことから、推論プロセスの説明が困難であるなどの課題があります。また、データ自体についても、フェイク情報やデータ改ざんなど推論の精度に関わる問題が発生しています。このような課題に対して、自律的に知識獲得・成長するAI技術や、説明可能なAI技術、さらにはフェイクニュース、データ改ざんなどを検知し対処する技術などの研究開発の推進が求められます。
これらの課題を克服し、「信頼」の担保されたTrustworthy AIの社会実装が拡大することにより、産業活動や社会活動のさらなる利便性向上と、人々の豊かな生活の実現が期待されます。
機関誌「日立総研」、経済予測などの定期刊行物をはじめ、研究活動に基づくレポート、インタビュー、コラムなどの最新情報をお届けします。
お問い合わせフォームでは、ご質問・ご相談など24時間受け付けております。