2012年2月から9月にかけて、カグルはヒューレット財団の後援で、学生の作文を自動採点するシステムを募る2つのコンテストを主催した。学生の習熟度を測定するには、選択問題よりも記述式のテストのほうが有効であるため、この領域での進歩は重要だ。しかし人間が採点すれば、機械よりもずっとコストがかかる。生徒の文章を自動採点できれば、テストの質を向上させると同時に、コストも下げられるだろう。カグルとヒューレットは、コンテストを実施するために大勢の教育専門家と協力したが、彼らの一部は気を揉んでいた。

 一方のコンテストは2ラウンド方式で、第1ラウンドでは既存の教育テスト会社11社が参加し互いに競い合う。第2ラウンドでは、カグルのコミュニティに参加しているデータ・サイエンティストが、個人またはチームとして参戦する。専門家は、カグルのクラウドには勝ち目がないだろうと案じていた。教育テスト会社は、以前から自動採点システムに取り組み、かなりのリソースをつぎ込んでいる。何百人ものスタッフが長年にわたり蓄積してきた経験と専門知識は、新参者のクラウドには到底かなわない強みのように見えた。

 だが、案じる必要はなかった。課題に挑戦した大勢の「新参者」の採点システムは、既存の教育テスト会社の結果をしのぎ、しかも採点の専門家が合意のうえでつけた点数に近かった。さらに驚いたことに、2つのコンテストで上位3位に入ったのは、作文の採点や自然言語処理に関して、十分な経験を持たない人たちだった。一方のコンテストの上位3人は、人工知能に関する正式な訓練を受けていなかった。スタンフォード人工知能研究所の教員による、誰でも参加できる無料のオンラインコースに参加しただけだ。このコースには世界中から大勢の人が参加し、多くを学んでいる――そして上位3人は、アメリカ、スロベニア、シンガポールの出身だった。

 特定の専門知識が主にどの辺りに存在するのか、企業はある程度把握しているだろう。しかしそのすべてを知っているわけではないことは、カグルから得られたような成果を見れば明らかだ。オープンソース・ソフトウェアの提唱者エリック・レイモンドによる、よく知られている名言がある。「目玉の数さえ十分あれば、どんなバグも深刻ではない」。だとしたら、あなたが抱えている難問を、できるだけ多くの目玉にさらしてみてはどうだろう?

HBR.ORG原文:Let the Crowd Fix Your Product's Bugs November 6, 2012

アンドリュー・マカフィー(Andrew McAfee)
マサチューセッツ工科大学センター・フォー・デジタル・ビジネスのプリンシパル・リサーチ・サイエンティスト