人工知能(AI)はビジネスに新たな機会を生み出す反面、運用を間違えれば、アルゴリムが不公平なバイアスを増幅させ、社会に負の影響をもたらしかねない。それを防ぐうえで、人間が果たすべき役割はきわめて大きい。本稿では、グーグルでこの問題と向き合うAIエンジニアが、包摂性、公平性、社会的有益性を保ちながら、AIが持つ可能性を引き出すために何をすべきかを論じる。


 技術革新をもたらす最大の原動力の一つである人工知能(AI)は、産業界にインパクトを及ぼしながら、まったく新しい機会を生み出している。

 エンジニアリングの観点から見ると、AIはデータ工学が進化したものにすぎない。優れたAI施策のほとんどは、汚れ一つないレーシングカーというより、泥だらけの軽トラックのような役割を果たす。つまり労役に使われる馬のような技術であり、生産ラインの安全性を5%高めたり、映画のレコメンド機能を少し向上させたりといった、地味な働きをする。

 しかし、ほかの多くの技術に比べて格段に生じやすい事象がある。善意あるAI従事者がよかれと思って着手した行為が、意図せず害を及ぼしてしまうことだ。不公平なバイアスを増幅させ、生来のバイアスを途方もなく有害なものにする威力をAIは持っている。

 AI技術がどのように開発され利用されるのかは、今後長期にわたって社会に大きな影響を及ぼすだろう。このことを、グーグルでAIを専門に扱う筆者らは理解している。

 そこで非常に重要となるのが、ベストプラクティスの確立だ。その起点となるのは、責任ある技術開発と、存在しうるすべての不公平なバイアスの軽減であり、この両方において、技術者には数歩先を見据えることが求められる。

 問うべきは、「この配送自動化によって配送コストを15%削減できるか」ではない。「この技術革新は、我々がいる都市とそこに住む人々に――特に、脆弱な立場の人々に――どう影響を及ぼすのか」を考えるべきなのだ。

 これは昔ながらの方法で行う必要がある。つまり、最終的にデータセットとモデルに変換される変数がどんなプロセスで生み出されるのかを、人間のデータサイエンティストが理解しなければならない。

 そしてその理解は、それらの変数に反映され影響を受ける人々――コミュニティの構成員、およびステークホルダー――との連携によってのみ、得ることができる。たとえば、AIが最終的に相互作用を及ぼす複雑なシステムについて理解している専門家なども、ステークホルダーに含まれる。