Take Your Time

仕事や研究、コンピューターとの付き合い方

all models are wrong, then is model useless?

経済学のモデルを機械学習や統計からみると、とっても強い仮定をおいた(かといって推定の効率性をあげているわけでもない)モデルを推定しているようにみえるらしい。 確かに彼らの教義をかじってみるとその想いはよくわかる。 で、経済学というのは時代遅れなのかということをずっと最近考えていたのだが、結論やはり経済学のsuccinct名モデルというのは有用だというふうに思った。 まず、モデルをセットアップする目的は、物事を「理解する」ことに重点が置かれることが多い。ここで、予測だけできればいいという場合は切り捨てる。実際に予測だけできればいいという場面はとても限定されると思う。なぜなら、現象を「理解せずに」予測を行うためには予測対象がすでに起こった出来事と同じかもしくは非常に近い必要があるからだ。つまり、安定的な金融市場のデータからリーマンショックを予測しろとか、AIブームを予測しろということは不可能で、日常的な(数学っぽく言えば定常状態の)世界で、十分データが取れているときしか通用しない。 もし「理解」をしていれば「予測」はずいぶん楽になる。きれいなデータがなくてもいい。例えば、僕らは日常的に様々な予測をデータ抜きで定性的な理解だけでやっている。恋愛や結婚、学校や会社選びのような経験のない大きな決断においても僕らはデータをほとんど使わない。直感とか多少の心理学、自己啓発本、友人や家族からのアネクドータルな情報で予測をしてしまう。 ビットコインやシェアエコノミーのような新しい技術の経済的影響もデータがない以上「理解」から「予測」するしかない。そしてそれをやってのけるのが人間だ。

経済学のモデルはデータを使うことが多くなったがもともとは実証とは無縁の世界だった。アネクドータルを数式で記述したものをモデルと呼び、思考実験でなんらかの結論をだしていた。 データは、そのモデルのパラメータを推定するために使われていた。つまり、事象そのものの理解は直感に基づいていてその精緻化、あるいは補強のために使われていた。直感からうまれたモデルをデータが完璧に否定した場合、別の直感がモデルをつくるだけであって、データドリブンでモデルが組まれてきたわけではない。

データドリブンのモデルというのはどういうものだろうか。何も仮定をおかずにモデルを組むことは不可能だ。どのようなモデルでも主観がはいる。ノンパラメトリックは多少仮定が弱いが、なぜその変数を選んだのかという点で主観がはいる。そして主観なしのノンパラメトリックなモデルが仮にあってそれが推定されたときに、実際何が起こるかというと人間はそれを理解しようとし始める。なぜこの変数が結果とこのような形で関連しているのか。それを理解するためには結局直感に戻る。あるいはアネクドータルな情報収集になる。データを細かく集計してみることになる。ノンパラメトリックなモデルが推定されたところで何も解決していない。

であれば最初から直感をもとに単純な強い仮定をおいたモデルを組んでそれを推計してパラメータの推定結果を直感と比較すればいい。直感が間違っていればパラメータの推定結果は直感に反している。直感に沿っていたら直感の正しさを証明するか?それは否である。結局どのようなモデル推定も推論のひとつでしかない。すべてのデータ分析は仮説の提示以上にはならない。誤っている仮説、ほぼ誤っている仮説、誤りだと指摘されていない仮説があるだけだ。

それ以上の推論など人間の脳では無理だ。真実は永久にわからない。そもそも真実は重要なのだろうか。誤った推論が社会厚生を損なう?しかし、反実仮想もまた推論でしか復元できない以上誰がその誤りを糺すのか。