AI(人工知能)の急速な進展は、現代社会に革新的な変化をもたらしていますが、同時に人権保障に対する新たな課題や機会をもたらしています。
この分野に取り組む北九州市立大学法学部法律学科 水野陽一准教授は、AIの発展が人権に及ぼす影響を深く探求し、様々な観点からその関係性を解明しています。今回は、AI技術が社会にもたらす影響について伺い、より公正で倫理的なAIの発展と人権保障を促進するための重要な基盤となりうるAI技術と人の共存の可能性について探ってみましょう。
取材にご協力頂いた方
水野 陽一(みずの よういち)
広島大学法学部卒業後、ドイツ学術交流会の支援を受けたドイツ留学(テュービンゲン大学)を経て、広島大学大学院で博士号(法学)を取得。2017年4月から現職。主な研究関心は、刑事手続における公正な裁判とはなにか、刑事司法における個人データの保護のあり方。近年では、AIを用いた警察の捜査をどのようにコントロールするべきか、というテーマに特に大きな関心を持っている。
目次
AIの進展と人権保障~影響の観点と評価方法について
ー AIの発展が人権保障に与える影響について、どのような観点から研究していますか?具体的には、プライバシー、差別、自由などの人権に対するAIの影響をどのように評価していますか?
水野氏:私は刑事法学者なので、特にAIの警察利用の場面について大きな関心を持っています。一口にAIといっても使用される場面は多岐にわたり、AIは良くも悪くも人間に対して、大きな影響を持つ存在になっています。生成AIによる仕事の効率化、自動運転技術の発展、お掃除ロボットの進化、病気の発見などAIの良い面を挙げればきりがありません。しかしながら、AIは人間の生活を豊かにする一方で、人間にとって危険な存在でもあるとしたら?そのようなAIの利用は禁止、少なくとも制限されなければなりません。警察領域におけるAI利用についても、私達国民の暮らし、特に治安維持などにとっていい面もあれば、悪い面、軽んじてはいけないリスクも潜んでいます。AIによるプライバシー、差別、自由などの人権に対するリスクは確かに存在していますが、だからといってAIの利用を一律に禁止することは最早不可能です。AIに存在する人権に対するリスクを前提としつつ、得られるメリットとのバランスを考慮した社会実装が必要であるという観点から日々研究を行っています。
警察がAIを使うメリットとして、容疑者(法律用語では被疑者といいます)を早期に発見、逮捕することができる可能性が高まることが考えられます。例えば、防犯カメラの映像に映る人物の顔画像をAIによるシステムで解析することで、この者が容疑者であるか否かを瞬時に高確率で判別することができます。これまで、人力での聞き込みなどに頼っていた捜査がAIを利用することにより格段に効率化されるわけです。ただ、このような顔識別システムを用いた捜査には大きなリスクが潜んでいます。すなわち、警察がその気になれば顔識別システムを用いて、ネットワークに接続する防犯カメラが設置されている場所であれば、あらゆる人の現在位置を特定することも不可能ではありません。防犯カメラには、警察が正当に監視対象とする容疑者以外にも多くの犯罪とは無関係な人が撮影されるため、犯罪への対処と個人データ保護とをいかにバランス良く両立させるかが問われることになるのです。また、AIの判断にも誤りが入り込むわけで、容疑者として特定された人物が本当は犯罪とは無関係であったという場面も想定されます。AIによる判断だから常に正しいという思い込みをするのは危険で、誤識別が起こりうるのだということも前提にしながら、警察によるAI利用のルールづくりが行われなければならないのです。
AIの導入と人権への影響~ポジティブとネガティブな側面の検討
ー AI技術の導入や利用が人権に対してポジティブな影響を与える可能性はありますか?それともネガティブな影響が大きいと考えていますか?その理由は何ですか?
水野氏:AI処理の前提となるデータの収集に偏りがないこと、加えてAIアルゴリズムが適切に構築されれば、人権にポジティブな影響を期待できるでしょう。例えば、これまで人間が行ってきた性別や出自、外見などによる差別などを徹底的に排したアルゴリズムが採用されれば、人間よりもAIによる公正な判断を期待することができるかもしれません。
しかしながら、データ収集やアルゴリズムの構築に際して、差別や偏見などの人権リスクを生ずる偏りを完全に排除することは難しいのではないでしょうか。なぜなら、人間の思考には一定の方向性が入り込むのが常であり、そのような人間によって収集されたデータ、構築されたアルゴリズムが完全な客観性を備えたものであると考えることは困難であるように思います。また、仮にデータやアルゴリズムに完全な客観性が確保された場合でも、そこから出力される結果が人間にとって常に望ましい結果となるのか、特に人権保障にとってメリットばかりであるのかが気にかかります。特に刑事司法の対象となる容疑者、国によって犯人とされた者は社会全体からすれば圧倒的にマイノリティーなのであって、AIによる「公正な判断」の埒外に置かれてしまうのではないかという懸念があります。これは、何も刑事司法の領域に限らず、他の領域におけるマイノリティーと呼ばれる人たちにも同じリスクが存在しているように思います。社会の大部分の人にとって有益な判断が、必ずしも少数派にとっても有利に働くとは限りません。
以上のようなAIによるデメリットが仮に存在するのだとすれば、人権にネガティブな影響が及ぶことを前提に、言い換えればAIにリスクが存在することを前提にAIのコントロールが行われる必要があるように思います。
プライバシー保護とAI技術~法規制や技術的手法の必要性と具体的な展望
ー AIシステムが個人のデータを収集し、分析することが一般的になる中で、プライバシー権の保護はどのように確保されるべきだと考えますか?具体的な規制や技術的手法などについての見解を教えてください。
水野氏:まず、プライバシーの保護とデータ保護の権利が個別に存在することを認識する必要があります。これまで両者は同一のもの、ないしは類似の権利であると考えられてきましたが、AI時代にはすべての人にプライバシーの権利だけではなく、データ保護の権利が認められることが前提とされなければなりません。
プライバシーの保護は、自らの身体や空間などに誰が触れ、立ち入ることを許すかに関わることであり、侵害の程度によって法による保護の対象となるか否かが決められてきました。例えば、衣服の上から軽く肩をたたかれたことと、衣服を脱がされ身体の隅々まで調べられることでは、後者のほうが法によってプライバシーを守る要請が高いとされそうです。これに対して、データ保護の権利は、個人に関係するデータはどんな些細に感じられるものであっても当該個人に処分権があることを前提とします。すなわち当該データがどのように扱われるのかを決めるのは原則当該個人であり、第三者が個人データを取得、処理、保存することは、すべてデータ保護の権利を侵害しているということになります。例えば、普段の何気ない日常の中で顔の映り込んだ写真を撮られることと、DNAを含む血液を誰かに採取され鑑定されることが等しく法律によって保護されなければならないということになります。DNAという個人データが法によって保護されなければならないということは、誰もが容易に理解することだと思いますが。顔を含む自らの姿(完全着衣の肌がほとんど露出していない状態でも)が撮影されることが法によるコントロールを必要とされるということに、あまりピンとこない人もいるかも知れません。しかしながら、現在のAI技術を持ってすれば、顔写真から顔特徴量データを抽出、データベースに登録することで、対象者が全世界どこにいてもネットワークで共有されたカメラを通じて容易に発見、現在位置を特定することができます。更に、撮影された場所から行動履歴を把握、位置情報に基づきAIによるプロファイリングを行い対象者の趣味嗜好などを含む人物像を高度に予測することも可能であると言われています。
このように、AIの社会実装が今日ほど進んでいなかった時代であればそこまで重要視されてこなかった個人データであっても、情報インフラの劇的な進化によるデータ収集、AIによる解析という方法を用いることによって、人権に対して非常に大きなリスクをもたらす危険性があることがわかってきました。これに対応するためには、従来のプライバシー保護の手法を超えて、データ保護それ自体の重要性が認識され、適切な法規制が行われなければならないのです。
AIによる意思決定と差別の問題~対処策と公平性の確保に向けたアプローチ
ー AIによる意思決定や予測が、差別や偏見を増幅する可能性があると指摘されています。この問題に対処するために、どのような対策やアプローチが有効だと考えますか?例えば、アルゴリズムの透明性や公平性を確保するための方法について教えてください。
水野氏:AIの利便性だけではなく、AIには人間に対するリスクが内在することを前提とした制度設計が必要でしょう。特に人権保障に根ざした、ヒューマンライツバイ・デザインとでも言うべきアプローチが必要となります。まず人権に対して低リスクのAIは関係者間の協議などに基づく自主的規制が少なくとも必要となります。更に人権に対して高リスクのAIをコントロールするには自主的なルールでは足りず、議会法による強力な統制が必要となる場面も予想されます。
AIの自主的規制として例えば、ユーザに対してコンテンツがAIによって生成されたものであることを明確に示すことなどが挙げられます。コンテンツがAI製であることの表示について、アメリカ政府とAI関係企業との間で合意されたことが話題になりました。議会法による法的規制の例として、EUは警察など治安維持機関のAIによる生体認証データの処理が個人のデータ保護の権利を侵害するということを前提に法規制を進めています。特に注目すべきものとして、警察による顔識別システムの利用は、法律が求める条件を満たさなくては実施が認められないとしました。このようにAIが社会に実装され、使用される場面ごとにリスクの存在を想定し、適切なコントロールを行っていくことが必要となります。
AIが実装された後に生じうる人権へのリスクをコントロールするだけではなく、人権保障に配慮したアルゴリズム開発の重要性について、AI開発に携わる技術者への啓発、人材育成段階での十分な教育を行うことも必要となります。
AI開発の倫理的枠組みと人権保障~実装の必要性と課題の検討
ー AIの開発や運用において、倫理的な枠組みや規制が必要とされていますが、これらの枠組みが人権保障にどのように関連していると考えますか?また、これらの枠組みを実装するための具体的なアプローチや課題は何ですか?
水野氏:結論からいえば、AI開発、社会実装など全ての場面で倫理的な枠組みが人権保障にとって必要となります。これまで説明してきた通り、AIには多くのメリットが有るのと同時に、軽視できないリスクが存在しています。日本を含む各国で議論、導入されているAIの倫理規則は、AIは人間のためのものであり、AIによって人間が損なわれることのないようにということを軸にしています。特にEUが世界に先駆けて採択したAI規制法は、AIにリスクのあることを前提としており、人権保障を前提としたAIの発展を企図するものです。AIの発展による効率化にばかり着目するのではなく、AIのリスクを想定した適切な法規制、制度設計が必要となるでしょう。このようなアプローチはAIの発展にとって回り道に思われるかもしれませんが、人間の価値を損ねるかもしれないAIが社会に実装されることを誰が歓迎するのでしょうか。急がば回れ、生まれながらにしてすべての人に認められる人権が損なわれることのないような、AIの利用ルールが設けられなければなりません。
AIの発展のみを考えた場合、人権保障を考えたAI開発は余計なコストを増やし、AIの進化を妨げると思う人もいると思います。ただ、人権へのリスクを無視してAIを使い自らの利益のみを追求する企業や組織を誰が信用し、そこで提供される製品やサービスを使いたいと思うのでしょう。施設利用者に無許可で行われた映像の撮影・顔識別、ユーザーに知らされずに内定辞退率を勝手に予測し第三者に提供していた例など、人権への配慮にかけたAI利用で炎上した案件は世界的に枚挙に暇がありません。AI開発や利用に際して人権への感度が高い組織のほうが、AI社会が現実のものになる現代において、結局はトータルで本当の意味での利益を得ることができるのだと思います。
ー 本日は貴重なご見解ありがとうございました。