Take Your Time

仕事や研究、コンピューターとの付き合い方

現実、理論、データ、統計、計量分析、

以下、完全なメモ(妄想)。
経済理論は直感やらナマのデータやら、より洗練されたデータ分析、あるいは計量的分析によった事実を数学的に記述したもの。ただし、データの整備や統計分析のテクニック、コンピュータの発達前には直感・生データに根拠を置くものが多かった。一方で、統計を専門とする人たちは理論上の綺麗なデータを前提に理論的に瑕疵のない厳密なデータ分析の方法を磨いていった。統計の専門家の一部はコンピュータの発展を利用して、シミュレーションやら繰り返しサンプリングを利用してより統計理論の現実への応用の幅を広げていった。進んだ統計手法に触発された経済学の人々は、恐らくマクロとミクロで全然別の進化を遂げていった。マクロに関しては時系列データとマクロモデルの架け橋を考える人達や、時系列データそのものから因果関係を捉えようとする人たちなどが出てきた。ミクロに関しては、個票データを使って理論の妥当性のテストをする人たちと理論はおいといて物事の因果関係をみる人たちが出てきた。一方で、純粋理論も発展を重ねて、難しい数学を使った理論が構築された。
理論から始めた人は、データというよりシミュレーションの方向に行く人が多かった。というのもきれいなデータはなかなかとれないし、理論モデルを推計可能な形にもっていくのが難しかったから。マクロに関しては、カリブレーションといわれる当てはめの方法を取る人が多かった。
いつからかは分からないが、恐らく80年代後半くらいから、データそのものを利用して理論の妥当性を検討する人々が増えてきた。計量経済学的にはGMMとかが発展した。
ただ、恐らくだがこうした学派(勝手に「理論アンドデータ派」と命名する)は統計ガチ勢、つまりは本格的な統計の専門家ほどにはデータに対する慎重さが少なかったのではないかと思う。それは、当然彼らの出自が理論であるところに起因していてそれ自体問題があるわけではないが、そうした統計ガチ勢からすれば経済学はなんだか胡散臭いという印象を持たれてしまっても仕方のない部分が合ったのではないかと思う。
もっと踏み込んで言えば、欠損値の扱いや変数の分布の特性などを前例踏襲でざっくり処理してモデルの推計に急いでしまうような論文がかなりあったのではないか。いわゆるコースワークに統計(それもプラクティカルなデータワーク)が少なかったことや、理論家として難しい数学を駆使することが評価のポイントであったというようなところもあるかもしれない。
「経済学者は現実をみていない」「経済学は使えない」といった批判の多くはモデルの抽象化の過程の指摘や、ひどい場合には俺の直感と違うというようなものもあるが、データに対する真摯な姿勢が書けるというところもあるかも知れない。それは生データをみていないとか計量分析の少なさというよりも、逆に統計的手法への過信や、陰に多くの強い(理論的)仮定をおいているといった部分にあるのではないかと思う。
Rというツールのお陰で、生物統計学や他の統計学を応用した学問の人々の書くものを読む機会が増え、「経済学用にアレンジされた統計学」の外の統計学に触れることが多くなった。そうした中で上記のような考えを持つに至った。