AIのポテンシャルを
生かすも殺すも人間次第

一般ユーザーにとっても企業にとっても利用価値が高く、社会に急速に浸透しつつあるAI(人工知能)。時間短縮や労力削減など様々なメリットがある一方、AIが社会や人間に与える影響も懸念されている。例えば、ビッグデータを分析するアルゴリズム(プログラム)は、設計者の意図によって組まれているが、それを客観的な判断と誤解している人は多い。事実上の標準とみなされてしまうことも起こりうる。今、私たちはどのようにAIと向き合うべきなのか。「言語」を中心に「情報技術・ロボット技術が社会に与える影響や、その倫理的な問題」などを研究している、名古屋大学情報文化部准教授の久木田水生氏に聞いた。

AIは「客観的に判断している」わけではない

久木田水生
名古屋大学情報文化部 准教授

名古屋大学情報学研究科准教授。専門は哲学。テクノロジーと人間と社会の関係について研究しており、近年はロボットや人工知能の社会への影響に焦点を当てている。共著に『ロボットからの倫理学入門』(名古屋大学出版会、2017年)、共訳書にアンディー・クラーク『生まれながらのサイボーグ』(春秋社、2015年)などがある。

――「情報技術が社会に与える影響」を研究されているそうですが、AIにはどのような影響がありますか。

久木田(以下略) ビジネスの世界では、人々のスマホやPCから吸い上げられるビッグデータ×AIが企業に大きな利益をもたらし、ビッグデータをより多く蓄積した企業の独占状態になっています。保有するデータが膨大になればなるほど、様々な利用方法が生まれ、データを握る企業の立場がよりいっそう強くなるからです。

 一方で、AIは私たちの生活にもすっかり入り込んで非常に大きな影響力を持ち、社会を形づくるようになっています。だからこそ、間違った、あるいは悪意のある判断や格差の助長につながるリスクが増大するのではないかと懸念しています。

 ビッグデータの多くは過去の行動データです。現在、ビジネスなどでよく使われるAIは、そのデータの一部に基づいて、人々を類型化し、行動を予測するようにプログラムされたものです。どのようなデータを用いるかというところには、技術的な制約とプログラマの恣意的な判断が働きます。またデータそのものにも社会が持っているバイアスが反映されています。にもかかわらず、人々は「AIが客観的に判断している」という錯覚に陥りやすい。AIを利用するには、そういうバイアスがあるかもしれないことを意識しておくことが非常に大切です。

AIで人材採用しても偏りが出る

――AIが間違った判断や格差の助長につながる例としてはどんなケースがありますか。

 例えば、好き嫌いや感情に左右されやすい人間よりもAIのほうが客観的に評価できるという理由から、採用や人事評価にAIを用いる企業が増えていますね。でもAIは人間と同じように、客観的でも公平でもないのです。

 採用に使うあるAIのアプリケーションでは、まず、面接の様子をビデオに撮り、その人の言葉や身振りを記録し、それを社内のハイパフォーマーの言葉や身振りと突き合わせる。それを点数化し、ハイパフォーマーに近い順にランキングするという仕組みです。一見、このような選び方はシステマチックで客観的と思えるかもしれませんが、そうとは言えません。

 というのも、言葉や身振りには出身地や育った環境が顕著に現れるからです。このAIを使えば、おそらく今いる優秀な社員とほぼ同じ出身地や育った環境の人だけを採用することになるでしょう。つまり、偏りが出るということです。人種や性別、出身地や住んでいる場所などで人を評価してはいけないのは当たり前のこと。米国では「客観的とされるAIによる採用を大義名分に、差別を助長している」との声もあります。

――そうなると下位の中に優秀な人材がいるかもしれませんね。

 はい。しかし多くの場合、事後検証はされませんから、AIが間違っていると指摘されることはないのです。

 たしかにこうしたAIを利用した採用は、機械的に人数を絞り込むことができるため、採用業務の効率が上がります。応募者全員を細かくチェックしていくのは大変ですから。もし下位に優秀な人材がいたとしても、全体的なコストや手間という点ではメリットがあるという判断になるのでしょう。

バイアスのかかったAIの判断が
社会に悪影響を及ぼす恐れも

――ほかにもAIの判断が社会に悪影響を及ぼす恐れのあるケースはありますか。

 犯罪発生の予測にも使われていて、米国にはプレディクティブ・ポリシング(予測警察)と呼ばれるAIがあります。AIが過去の犯罪データを学習し、事件が起こりやすい場所と時間帯を確率で示すというものです。

 実際、事件の発生確率が高いと予測された地区では、犯罪検挙率が上がるといわれています。しかし、それは予測が的中したのではなく、予想に基づいてたんにパトロールの警察官を増やしたからかもしれません。もしかしたら、警察官がその場にいなければ、事件にならないような些細なトラブルだった可能性もあります。いずれにしても、その地区では実際に逮捕者が出るため、予測が当たったということになり、AIが導き出す発生確率はより高まっていきます。でも、それが正しいかどうかは疑問です。

 このように判断材料となるビッグデータにバイアスがあると、AIもバイアスのかかった判断を下すことになります。その結果、「AIが予測した地区で逮捕者が増えて事件の発生確率がより高くなることで、他の地区はパトロールが疎かになる」といった悪影響を増幅してしまう恐れもあります。

 また、AIによる「ローン審査」もそうですね。住んでいる場所や人種、家族構成などを加味して審査すると、貧しい地域で育った人はお金を借りられないかもしれません。そうなると、ますます貧しくなり、よりお金を借りられなくなってしまう。結果的に、お金を貸さなかったAIは正解ということになってしまうわけですが、それが果たしていいのかどうか。

AIは、容易に数値化できること
しか評価しない

――では、AIを利用するにあたって、私たちはどんなことに注意すべきでしょうか。

 忘れてはいけないのは、AIはプログラムのパラメーターとして容易に数値化できることしか評価のための公式に組み込まないという点です。このため、AIが普及すると、数値で表せないものには価値がないという風潮が強くなると考えられます。

 例えば、学校の先生をAIで評価するとしましょう。担当する生徒のテストの点数で評価することはできますが、校長先生や他の先生から信頼されている、あるいは父兄の評判のようなものは簡単に数値化できないため、加味されません。AIが評価するのは人間のほんの一面にしか過ぎないわけです。何のためのプログラムかによって設計する人のバイアスがかかるし、そもそも数値化できるものしか扱わないというテクノロジーのバイアスもあるのです。

 採用というのは「捨てる神あれば拾う神あり」というように、ある会社で評価が低かった人が別の会社で活躍することもよくあります。AIのメリットを活用しつつ、そうした数字に現れない部分を人間が見抜いて判断することがより重要になってくるのではないでしょうか。

考える作業も
AIがやってくれるように

 また、私たちは情報を得て自分で考え、行動しています。これまでは主にその情報収集の部分と行動の部分だけをテクノロジーがサポートしてくれていました。考えて判断するのは人間なわけです。それゆえより良い判断をして、結果としてより良い行動をするためには、私たちは世界についてよりよく知る必要がありました。

 しかし、AIの時代になってくると、考えるところもAIが代わりにやってくれるようになります。世の中のことをよく知らなくても、効率のいい行動をチョイスできるようになる。とても便利になるわけですが、AIの判断を過信しないことが重要でしょう。

 私たちは、スマホやPCを通して様々なサービスを無料で利用できる代わりに、データを提供しています。そして、何をクリックしたか、どういう動画や広告を見たかが逐一収集され、それが類型化される。その結果、タイプ分けやグループ分けがされ、お金はいくらまでしか貸せない、保険料はいくら、おすすめはこの商品、と決められていくのです。

 ですから、私たちはAIが提案するサービスが本当に適切なのかを、自分で目利きする能力を持たなければいけません。それと同時にAIによって自分がどのように類型化されているのか、なぜそのような類型化をされたのかを知ることができ、場合によってはそのような類型化に異議を唱えることができるような仕組みも必要でしょう。

 これまで述べてきたように、AIの判断は常に客観的というわけではありません。でも、私はAIを否定しているわけではなく、生活をとても便利にしてくれるのは事実ですし、むしろ誰よりもAIの健全な発展に期待しています。大切なのは「正しい認識を持ってAIと向き合うこと」。つまりそのAIがどのような目的で作られ、どのような仕組みで動いているのか、どのような限界や欠点を持っているのか、そのAIで得をするのは誰で、搾取されるのは誰かを知ることです。AIのポテンシャルを生かすも殺すも人間次第といえるでしょう。

「倫理観」をもったAIは実現可能!?

――AIの今後の課題は何でしょう?

 先に紹介したAIを利用した採用でも、本来はなぜ採用したのか不採用にしたのかを、明確に説明できなくてはいけないはずです。しかし、現在の機械学習システムで、人間がわかるように判断の理由を説明するのは非常に難しい。そこをいかにできるようにするかが今後の大きな課題です。

 AIのアルゴリズムを作るときには作成者の意図が反映されるのですが、その結果については、絶対的な客観性があるような錯覚をしてしまうことが多い。社会全体としてAIについての適切な理解を促進していかなければなりません。また設計者はAIの出した結果を吟味し、アルゴリズムが適切であるかを絶えず見直すようにしていかなればなりません。

 さらに、倫理をAIに実装するというような研究も近年進められています。人間のような倫理観をAIが持つかどうかは分かりませんが、しかし倫理を配慮して設計されたAI、人間が大事にしている価値、例えば公平性、人権、尊厳、自律性、創造性などを促進してくれるようなAIが実現できれば、本当に素晴らしいことですね。

(構成/河合起季)