2022年2月号

AIが社会の信頼を得るために企業は何をすべきか

来るべき規制強化に備える

フランソワ・キャンデロン

フランソワ・キャンデロン

ボストン コンサルティング グループ マネージングディレクター兼シニアパートナー

ボストン コンサルティング グループ(BCG)のマネージングディレクター兼シニアパートナー。BCGヘンダーソン研究所のグローバルディレクターも務める。

ロドルフ・シャルメ・ディ・カルロ

ロドルフ・シャルメ・ディ・カルロ

ボストン コンサルティング グループ パートナー

ボストン コンサルティング グループのパリ・オフィスでパートナーを務める。

ミダ・ドゥ・ボンド

ミダ・ドゥ・ボンド

ボストン コンサルティング グループ プロジェクトリーダー

ボストン コンサルティング グループのブリュッセル・オフィスでプロジェクトリーダーを務める。

テオドロス・エフゲニュー

テオドロス・エフゲニュー

INSEAD 教授

近年、世間がデジタル技術に対して抱く懸念は、パーソナルデータの利用に関するものが中心だった。しかし、企業が製品やサービス、意思決定のプロセスなどに人工知能(AI)を組み込むことが増えるにつれ、その関心はAIにまつわる問題へと移ってきている。AIアルゴリズムがどのようにデータを活用するのかといった点に懸念が生まれ、規制強化の動きが進みつつあるのだ。本稿では、規制強化に備え、企業がAIを消費者にとって安全で信頼できるものにする際に直面する、3つの課題を論じる。さらに、経営層がAI活用のリスクに対処するのに役立つフレームワークを提示する。
PDF論文:13ページ[約2,870KB]
論文セレクションご利用の方は、PDFがダウンロードできます。(詳細はこちら

この号の目次を見る

しおりを挟む位置をクリックしてください。

解除の場合はをクリックしてください。

この記事は以前に読み進めています。
前回読み進めたページまで移動しますか?

移動する移動しない