AI Shift ―― The Business Transformation for AI ――

AIのポテンシャルを
生かすも殺すも人間次第

3

バイアスのかかったAIの判断が
社会に悪影響を及ぼす恐れも

――ほかにもAIの判断が社会に悪影響を及ぼす恐れのあるケースはありますか。

 犯罪発生の予測にも使われていて、米国にはプレディクティブ・ポリシング(予測警察)と呼ばれるAIがあります。AIが過去の犯罪データを学習し、事件が起こりやすい場所と時間帯を確率で示すというものです。

 実際、事件の発生確率が高いと予測された地区では、犯罪検挙率が上がるといわれています。しかし、それは予測が的中したのではなく、予想に基づいてたんにパトロールの警察官を増やしたからかもしれません。もしかしたら、警察官がその場にいなければ、事件にならないような些細なトラブルだった可能性もあります。いずれにしても、その地区では実際に逮捕者が出るため、予測が当たったということになり、AIが導き出す発生確率はより高まっていきます。でも、それが正しいかどうかは疑問です。

 このように判断材料となるビッグデータにバイアスがあると、AIもバイアスのかかった判断を下すことになります。その結果、「AIが予測した地区で逮捕者が増えて事件の発生確率がより高くなることで、他の地区はパトロールが疎かになる」といった悪影響を増幅してしまう恐れもあります。

 また、AIによる「ローン審査」もそうですね。住んでいる場所や人種、家族構成などを加味して審査すると、貧しい地域で育った人はお金を借りられないかもしれません。そうなると、ますます貧しくなり、よりお金を借りられなくなってしまう。結果的に、お金を貸さなかったAIは正解ということになってしまうわけですが、それが果たしていいのかどうか。

AIは、容易に数値化できること
しか評価しない

――では、AIを利用するにあたって、私たちはどんなことに注意すべきでしょうか。

 忘れてはいけないのは、AIはプログラムのパラメーターとして容易に数値化できることしか評価のための公式に組み込まないという点です。このため、AIが普及すると、数値で表せないものには価値がないという風潮が強くなると考えられます。

 例えば、学校の先生をAIで評価するとしましょう。担当する生徒のテストの点数で評価することはできますが、校長先生や他の先生から信頼されている、あるいは父兄の評判のようなものは簡単に数値化できないため、加味されません。AIが評価するのは人間のほんの一面にしか過ぎないわけです。何のためのプログラムかによって設計する人のバイアスがかかるし、そもそも数値化できるものしか扱わないというテクノロジーのバイアスもあるのです。

 採用というのは「捨てる神あれば拾う神あり」というように、ある会社で評価が低かった人が別の会社で活躍することもよくあります。AIのメリットを活用しつつ、そうした数字に現れない部分を人間が見抜いて判断することがより重要になってくるのではないでしょうか。

次のページ  倫理観を持ったAIは実現するか»
» 「AI Shift ―― The Business Transformation for AI ――」 トップへ戻る

AI For Business