AIがもたらす新たなリスク

 新しいリスクが生まれる具体例を挙げてみよう。今、ビジネスの現場で急速に利活用が進むデジタル・テクノロジーの代表がAIだ。さまざまなタイプの音声アシスタントはすでに生活に浸透しているし、無人コンビニやカメラを使った個人認証システムなど、AIが組み込まれたサービスは、もはや誰にとっても身近なものになっている。デロイト トーマツが日本に拠点を置く企業を対象に実施した調査「AIガバナンス サーベイ 2019」でも、すでにAIをビジネスに活用している、あるいはそのための取り組みを始めている企業は過半数を超えている(図表1)。

 しかし、AIのような実用化されて間もない技術には、既成概念では予測できないリスクが付きものだ。例えば、AIを搭載したチャットボット(自動対話プログラム)を顧客対応に導入している企業は多い。蓄積したデータを活用すれば対応の精度がますます上がり、顧客サービスの質を継続的に向上できるのがAI活用のメリットだが、そのためには適切なモデルの構築と、適切なデータセットを使った学習で「正しい教育」が施されていることが前提だ。もし偏ったデータや非倫理的なデータを学習させれば、そもそもサービスでの対応を誤ったり、顧客の気分を害する差別的な対応をしてしまい、企業イメージを大きく毀損させてしまう可能性がある。

 かつて実際にあった事例が、女性の美を競う「ミスコンテスト」の審査をAIに任せたところ、入賞者が白人ばかりになってしまったというものだ。事前に何万枚もの女性の画像データで「美」を学習させていたが、そこに有色人種のデータがほとんど入っていなかったため、判断が偏ってしまったのだ。企画者に差別的な意図がなかったとしても、企画に携わった企業は、結果に対する説明責任から逃れることはできない。

 より深刻な例も考えられる。例えば、遠隔診療サービスでAIが診断を誤って患者の病状が悪化したとしたらどうだろう。あるいは、自動運転車のAIの判断ミスで通行人をひいてしまったら──。その責任は、誰が、どう負うべきか、社会的なコンセンサスはまだない。しかし、たとえ現行の法律で免責されたとしても、倫理的、人道的に100%責任がないと言い切れるだろうか。

 新規事業に乗り出そうとするとき、企業はそれがもたらすバリューにばかり着目し、表裏一体に潜在するリスクをいかにコントロールするかの議論は後回しになりがちだ。確かにデジタル・テクノロジーの進歩は、これまでできなかったビジネスをさまざまな形で可能にした。しかし、「技術的にできる」からといって、その全てが「すべきこと」ではあり得ない。本当に自社で取り組むべきことか、取り組むデジタル・テクノロジーはどのような特有のリスクを保持しているのか(AIが持つ固有のリスクは図表2の通り。デロイト トーマツが9つに分類)、そのリスクをどこまで許容すべきか、ガバナンスの観点から慎重に判断する必要があるのだ。

 そして、的確な判断を下すためには、企業の監査・監督部門(ガバナンスサイド)にも、事業執行部門(ビジネスサイド)と同レベルの、デジタル・テクノロジーに対する知見が求められる。そして、ビジネスサイドの説明をうのみにするのではなく、むしろ先んじてリスクの存在を指摘し、対処方法を具体的に提案しなければならないのだ。