人が意思決定を行う際、無意識にさまざまなバイアスの影響を受け、公平性や客観性を欠く判断を下してしまうことはよくある。人工知能(AI)もこれらのバイアスと無縁ではない。AIが学習したデータが偏っていたり、断片的だったりすれば、同様の問題を引き起こす可能性がある。本稿では、IBMでAI倫理グローバル・リーダーを務める筆者が、AIの公正性と透明性と正確性を高めるために実践してきた施策を紹介する。


 人間はさまざまなバイアスを持っている。いくつかの例を挙げれば、確証バイアス(あるテーマに関して、自分がすでに持っている認識を強化する情報に目が向きやすい傾向)、アンカリングバイアス(あるテーマについて最初に接した情報に基づいて決定を下す傾向)、ジェンダーバイアス(女性を特定の特徴や活動や職業と結びつけ、男性を別の特定の特徴や活動や職業と結びつける傾向)などがある。

 私たちは意思決定を行う際、無意識にこうしたバイアスの影響を受け、不公正な決定や、客観性を欠く決定をしばしば下してしまう。

 人工知能(AI)もこれらのバイアスと無縁ではない。特に機械学習の手法によりAIシステムを構築する場合は、その影響があらわれやすい。

「教師あり機械学習」と呼ばれる一般的手法を用いる際は、膨大な量の問題と解決策の事例をもとにAIシステムを訓練する。たとえば、融資申請の受理・不受理を判断できるAIシステムを築くとすれば、申請内容と、それに対する正しい審査結果についての情報を大量に与えて学習させることになる。

 AIシステムは、そうした大量のデータを読み込むことを通じて、申請内容と正しい審査結果の相関関係を抽出する。その法則性に基づいて、新たな融資申請に対して正しい(と思われる)判断を下すことが目的だ。

 訓練の段階が終わると、AIシステムの構築はテストの段階に進む。別の事例を使って、システムが十分に精度の高い予測を行うことができ、実務に投入することが可能かを見極めるのだ。

 だが、訓練に用いるデータが偏っていたり、断片的だったり、一部のケースしか反映していなかったりすれば、AIシステムにバイアスが入り込む可能性がある。

 たとえば、訓練用のデータの中で、受理された融資申請がことごとく男性によるもので、拒否された融資申請がことごとく女性によるものだとすれば、そのAIシステムは性別と融資申請の受理・不受理の間に相関関係を見て取り、新しい融資申請を審査する際に、そのバイアスに基づいて判断するようになる。

 これ以外にも、訓練用のデータにバイアスが入り込むパターンとしては、人々の属性によってデータの量に違いがあるケースも考えられる。この場合、AIシステムの予測精度は、対象となる人の属性によって変わってくる可能性が高い。データの量が多いグループに関しては、豊富なデータをもとにAIが学習できるので、学習の質が高まるからだ。

 こうしたバイアスの影響を受けたAIシステムは、金融や医療、司法など、判断を誤った場合に失うものが多い領域において、一部のグループをひいきした判断を下しかねない。このような事態は容認し難い。その決定が人命に大きな影響を及ぼす恐れがある場合はなおさらだ。

 AIシステムのバイアスを検知し、それを緩和するためのアルゴリズムも存在する。しかし、AIシステムのバイアスを取り巻く状況は非常に複雑だ。データのタイプ(画像、テキスト、発話、構造化データなど)によって、AIの訓練用のデータに含まれるバイアスを検知するために有効な手法が異なる。

 AIシステムの導入に至るプロセスでは、訓練用のデータを用意する時だけでなく、ほかの段階でもバイアスが入り込む可能性がある。

 たとえば、融資申請の主たる目的(住宅購入、学費の支払い、弁護士費用の支払いなど)を判断し、システム開発者の考えに基づいて、ある種の目的による融資申請をほかの目的による融資申請より優遇するようなAIシステムをつくるとする。この時、システム開発者がある特定の目的を除外すれば、その目的で融資を受けようとしている人は不利に扱われることになる。

 こうした点は、ますます大きな問題になりつつある。では、このような問題を是正するためにどうすればよいのか。以下では、AIの公正性と透明性と正確性を高めるために、筆者らがIBMで行ってきた取り組みを紹介したい。