2024.08.23
レポート
AI規制について —欧米の動向と日本の状況—
独立行政法人情報処理推進機構 デジタル基盤センター長
AIセーフティ・インスティテュート 副所長・事務局長
平本 健二氏
私が副所長を務めているAIセーフティ・インスティテュート(AISI:エイシー)は、規制当局ではなく規制当局である内閣府等政府の検討を技術的に支援する組織という位置で、情報のハブとして世界各国の動向などを情報収集しています。
AIに関して、すでに規制の詳細な部分まで検討が進んでいるのではないか、というご質問をいただくことが多くありますが、実際にはまだ世界中でAI規制をどうすべきかを検討している最中であり、詳細が決まっているものではありません。それを踏まえて、現在の世界の状況や日本がどのように対応しているかという点をお伝えしたいと思います。
AISIとは
AIはイノベーションとセーフティが車の両輪で、非常に大きな力を持つAIを安心して開発したり活用するためにはセーフティが重要となります。
AISIは、内閣府を中心に10府省、5政府関連機関が連携し、官民の取組を支援する裏方的な組織として今年2月に設立されました。事務局は、独立行政法人情報処理推進機構(IPA)に設置され、4月から本格的に稼働し始めたところです。世界各国のAISIでは、包括的なAI法が成立しているEUのAIオフィスで60名程度、他国も30~40名程度、日本も現在25~26名なので、各国ともまだ組織の立ち上げ中という段階で、具体的な検討等はこれからとなります。
AISIの役割としては、
- AIセーフティに関する調査、評価手法の検討や基準作成等の支援
専門調査を行う部門が、各国のAIセーフティに関する主に技術的な検討の状況等を収集し、評価のあり方を考える。
- 日本のAIセーフティのハブとして、産学の最新情報を集約し、関係団体間の連携を促進
散在する解説や事例、業界ガイドライン等に関する情報の集約と提供、現在40以上あるAI関連団体間の連携を図る。現在は団体等の情報を収集している段階。 - 他国のAIセーフティ関連機関との連携
現在最も活発に行われている活動。各国政府機関やビッグテック等と緊密に連携し、AIセーフティを保つためのルール形成のあり方について意見交換を行っている。
が挙げられます。また、スコープは、現時点では明確化せず、海外の動向や企業等のニーズを把握しながら柔軟にスコープを設定し取組を進めていくこととしています。
AIのリスクとは
AIを規制する必要があるのは、そこにリスクがあるためなので、まずはリスクを把握しそのうえでそれぞれのリスクに対してどのような対処が望ましいか(法律で厳格に規制すべきか、自主規制に任せるべきか等)を検討する必要があります。
AIに関しては、世界に先駆け日本が2019年に公表した「人間中心のAI社会原則」で7つの原則を定めています。今年4月に公表された「AI事業者ガイドライン」では、この原則をもとにAI開発者、AI提供者、AI利用者それぞれのフローの中で想定されるリスクを整理し、ライフサイクルを通じたAIリスク検討の必要性を説明しています。
また、7つの「人間中心のAI社会原則」を細分化し、AIで想定されるリスクを10の原則に基づき共通の指針、主なリスクを整理しています。AI事業者ガイドラインは、AIを安全安心に利用するためのガイドなので、AIリスク一覧ということではなく、何を考える必要があるか、考える視点が示されています。
英国のAIセーフティの原則では、AIはフィジカル、ソーシャル、経済、心理的なリスクがあるされています。フィジカルとは、車載AIが暴走して事故を起こし物理的に人に被害を及ぼすもの、ソーシャルは偽情報等により社会に混乱を招くもの、エコノミカルは株価への影響等財政的損失を負わせるもの、サイコロジカルなリスクとはAIが生成した情報や画像を見てショックを受ける、雇用への影響を与えるというものです。
この4つの観点から、それぞれの原則に対して現時点で考えられる主なリスクをまとめています。
表1:AIに関して想定されるリスク
項目 |
共通の指針 |
主なリスク |
---|---|---|
1) |
|
|
2) |
|
|
3) |
|
|
4) |
|
|
5) |
|
|
6) |
|
|
7) |
|
|
8) |
|
|
9) | 1列> |
|
10) |
|
|
出典:「AI事業者ガイドライン」(経済産業省、総務省)
「リスク」というと、特に日本ではネガティブなイメージにとらえられがちですが、ISO 31000ではネガティブにもポジティブ(「顧客が急増して対応しきれない」等)にも捉えられるもの「物事の不確実性に影響があるもの」として定義されています。ISO 9001でも同様に、不確実性に対する影響と定義しています。
また、リスクのレベル感に関しては、例えば欧州AI法では、受け入れがたいリスク(生命の危機を生じさせる等)、ハイリスク(社会がマヒする等)、限定的なリスク(業界や一部地域等)、ミニマムリスク(スパムメール等)と分類されています。また、リスクへの対応として、回避するのか受容するのか、あるいは転嫁、低減するかと言った点を考える必要があり、そのうえで規制も必要だという声も上がってきます。
規制の考え方
AIへの取組に関しては、現在ほとんどの国がリスクベースアプローチをとっています。従来のコンプライアンス型は、ルールを作成しそれが遵守されているかどうかをチェックするもので、広くリスクに見合った低減措置は可能ですが、効果に関しては懐疑的です。一方、リスクベースアプローチでは低リスク分野に必要以上のリソースを割かず、高リスクな領域や想定されるリスクに対してアプローチする考え方です。
もう1つの検討課題は、ソフト・ローによるアプローチをとるか、ハード・ローによる対応を取るかという点が挙げられます。ソフト・ローというのは、ガイドラインや基本的に強制力を持たないものですが、技術変化に対して迅速かつ柔軟に制定変更が可能です。一方、法律等のハード・ローは強制力を伴う一方で、制定までに非常に時間がかかります。これに関しては、各国で考え方が異なっています。最近では、アジャイルガバナンスという言葉も聞かれます。基本的な部分を法律等で対応し、細かな運用等はソフト・ローで対応するといったことも検討されています。いずれにおいても、組織やプロセスを対象とするのか、プロダクト・サービスを対象とするのか、どういうタイミングで確認するかという点などを整理していく必要があります。
「「AI制度に関する考え方」について」
規制の考え方という点では、今年5月に内閣府AI戦略チームが「「AI制度に関する考え方」について」という資料を取りまとめ公表しています。これは、「規制が必要だ」「ソフト・ローで対応すべき」等様々なご意見がある中で、日本としてどうあるべきかを考え始めるために作成されたものです。ここにまとめられた各国の考え方を見ても、リスクベースアプローチという点では一致していても各国で観点や対応が異なっています。共通しているのは、規格やガイドラインといったソフト・ローと法律等ハード・ローの組み合わせにより、効率的で技術の変化に迅速に対応することが必要だという認識です。日本でも、AI戦略会議でこの資料が議論され、AI制度研究会が設置され、制度の要否から検討されることとなるなど、まだまだ各国ともやっと検討段階に入ったという状況です。
多様なリスクへの各国の対応
現在各国で検討されている内容がリスク対応にフォーカスしているように思われるかもしれませんが、リスク対応とイノベーションは対立概念ではなく、イノベーションするために安心安全に使うためのルール作りという位置づけです。
EUでは、広範なハード・ロー(AI法)をソフト・ローで補完しようとしています。偏見等を重大リスクと位置づけたり、製品事故が想定されるものへのリスク評価義務付け、汎用AIモデルへの透明性要件の遵守義務を課し、違反に対しては課徴金による制裁を行う方向で2年後の施行に向けて詳細を詰めています。また、AI関連だけでなくデータに関する法律等も精力的に整備し、着実にデータ社会/AI社会に対して布石を打っています。
一方、米国はAI開発大手がボランタリー・コミットメントを出したり、大統領令として規制整備の指示やスケジュールを発出、G7では2023年に日本が議長国となって広島AIプロセスを主導し、高度AIシステムに関する国際指針やAI開発者に対する国際行動規範を策定しました。
日本は、どちらかと言えばソフト・ロー対応としてAI事業者ガイドライン等も早い段階で出し、アジャイルガバナンスという形で見直していこうとしています。
多くの方からご質問をいただく世界的な相互運用性に関する検討も、当然考えていかなければならない部分ではありますが、今はまだそこまでの議論はされていません。相互認証のような形を取るのか、どこかの国の認証を取得すればOKとするのか、あるいは+αの確認を求めるようにするのか等は今後の検討となりますが、各国でルールがバラバラで良いとはベンダーも行政側も思わないので、将来的には整合が取れる形に進んでいくのではないかと思われます。
AI制度研究会による検討
7月19日に開催されたAI戦略会議において、今後、AIの制度の必要性や対象範囲を検討する「AI制度研究会」の設置が決定しました。この研究会において、これから議論が本格化すると思われますので注視していく必要があると思います。
評価やテスティングについて
リスクの取り扱いに関しては、法律による規制以外にも評価やテスティングという手法もありますが、何をどのように評価するかという課題があります。これまでご紹介した「AI事業者ガイドライン」は米国NISTの「AIリスクマネジメントフレームワーク(AI RMF)」と対をなすものとして用語の対応関係を整理し、5月に日米クロスウォーク1の成果として公表しています。
現在は、評価の観点に力を入れており、各国のガイドライン等を参照しつつ作業を進めています。また、8月には米国NIST AI RMFとAI事業者ガイドラインを項目レベルで相互参照できるものを日米クロスウォーク2の結果として公表する予定としています。
最後に
AISIは、内閣府が進めるAI戦略の下、一枚岩のチームとなって関係府省庁と連携して今後本格的な活動に入っていきます。また、AISIでは汎用的な内容を検討していきますが、業界ごとの自主ガイドライン等、民間主導の取組も行われていますので、そういったところとも連携し、他業界でも参考になる共通的な内容を各分野のガイドに組み込んでいくといったことも必要になってくると思います。
AIの変化が速く、世界の取組も日々変わっている中で、各国ともAISIの本格活動に向けて体制を構築しているため、今はまだみなさんから寄せられる具体的な詳細に関する質問に答えられる段階にありませんが、社会的受容性にも配慮しながら課題の優先度やニーズを見極めながら整備に向けた活動を行っています。
今後、テーマ別の委員会等も活動開始を予定しており、AISIでは現在、人材を募集中です。ご関心のある方はぜひAISIのWebサイトをご確認ください。
本内容は、2024年7月22日に開催されたJIPDECセミナー「AIと規制について —欧米の動向と日本の状況—」講演内容を取りまとめたものです。
- 講師
- 独立行政法人情報処理推進機構 デジタル基盤センター長 /AIセーフティ・インスティテュート 副所長・事務局長 平本 健二氏
1990年4月NTTデータ通信株式会社 入社(現 株式会社NTTデータ)
2008年7月経済産業省CIO補佐官
2012年8月内閣官房 政府CIO上席補佐官
2021年9月デジタル庁 データ戦略統括
2023年7月IPAデジタル基盤センター センター長 現職兼務
2024年2月AIセーフティ・インスティテュート事務局長 兼務
2024年4月AIセーフティ・インスティテュート副所長 兼務