ビッグデータの本質はイノベーションリスクを下げること

 この疑問に対し最近、前向きな考えができるようになってきました。ビッグデータの進展によって、より多くのデータが収集でき、より高度な分析を可能としてきました。それらを言い換えると、データ収集のコストが劇的に下がったということです。だからこそさまざまな分析を「容易」に実施することができるようになったのです。つまりデータ分析の費用対効果が上がったということ。

 データ分析が容易に出来るようになれば、さまざまな未知なる施策を検証することが出来るようになります。過去の経験則から答えの出ないことも、その効果測定が難しければ、いきなりの実施にはリスクが高すぎます。しかし、アイデアとして可能性があると思えることが、その効果の測定が容易になれば、「やってみる」ことが現実化していきます。

 最新号の特集「小さなイノベーション」のなかに、「ビジネスの仮説を高速で検証する」という論考があります。ハーバード・ビジネス・スクールでイノベーションを教えるステファン・トムク教授と、予測分析ソフトウェア会社であるアプライド・プレディクティブ・テクノロジーズ社の創業者、ジム・マンジィ氏の共著です。

 この記事は目から鱗でした。仮説検証のサイクルを高速で回すことができると、仮説の構築に時間をかけるより、検証してみることで仮説の精度が測定できるのです。つまり、さまざまな多数の仮説を低コストで検証できる。この方法論を導入することで、企業は机の上で仮説の有効性を考える時間を短縮し、試してみて、その有効性を検証することが容易になります。

 イノベーションの重要性が叫ばれながら実現できなかったのは、革新的なアイデアが出てこないからなのか。むしろアイデアや発想力の問題ではなく、新しいアイデアを試すコストが高く、実施してみる意思決定を下せなかったことではないでしょうか。新しいことを試す意思決定のハードルが下がれば、イノベーションの可能性を検証する機会は増え、確率論から考えても、新しい施策の開発の可能性が高まります。イノベーションというと、清水の舞台から飛び降りるような覚悟を想像してしまいがちですが、小さく試す方法論があれば、それを繰り返すことで非連続の変化を生み出すことも可能になります。仮説を構築したら、それを小さなリスクで試せる方法を検討することが、重要になりつつあります。(編集長・岩佐文夫)