2013年7月14日日曜日

ビッグデータから、対象を読み取る技術は、IT技術ではない

これも、大きな誤解がある。

ビッグデータをビジネスに、、、、

などの、文言が並んでいるが、

ビッグデータを活用するためには、そのデータを解析して、傾向を読み取るための専門知識と、技術が必要である。

ツールで、可視化をしても、それから、何を読み取るかは、別の分野の専門家の知識が必要


幸い、僕の、卒論は、35年間(5年ごと)蓄積された過疎集落(2000集落)の185項目データを、解析して、動態モデルをつくり、過疎化を引き起こした原因の時系列的な因果関係解析。

185項目 x 2000集落 x 7 = 2,590,00


また、一部上場企業を対象にした組織のイノベーションマネジメントの研究では、

200項目 x 10,000人   = 2,000,000

のデータを扱って、イノベーションマネジメントの研究をして、

メソッド化をするとともに、ビジネス化した。


両者のような、大量のデータ解析をして思う事は、

1)統計処理は、コンピュータで行い可視化はできる。

2)動的なモデルを構成するための、要素の候補は、統計データから選ぶことはできる。

3)最後に、モデルを構築して、データ自身に、意味づけをすることは、解析者の能力

簡単に言うと、エクセルを使って、グラフ化などはできる。

でも、そのデータを読み取り、モデル化するのは、エクセルでなく、人の能力。


ビッグデータ処理についても、解析可能な人の為のツールでしかないのに、、、、

しかし、解析をできる人は、日常さまざまな解析をしているので、Methodを持っている。

結局、ビッグデータを、その裏付けに使っているだけ。。。

その現状が理解されていない。

その理由は簡単、ツールを研究している人や、ツールを開発している人の仕事がなくなるから、

段々、コンピュータの分野も、本質的な部分から離れた、つxらないお祭りが増えてきた。

peace.

0 件のコメント:

コメントを投稿