しょっちゅうパソコンを変える関係で長年sugarsyncを使っている。
満足していたのだが、いくつか問題が生じてきた。
ひとつは、mendelayやzoteroなどの論文管理ソフトとの競合、もう一つはgithubとの競合だ。
いずれも複数PCとリモートサーバーとのファイル同期をしてくれるのでsugarsyncが複数PCと同期するときにはすでに同名ファイルがある。
結果xxxx (from mac@myhome)みたいなファイルがたくさん生まれてしまいストレージを食ってしまう。
githubの場合は.git/
のファイルが複製されるので明確に支障も出てしまう。
zoteroについては、zotero側の同期をきることにした。これは、sugarsyncに論文をながいこと蓄積したので、今更整理するのが面倒というのがある。容量も巨大だし。新しいPCに変えるときに考えたい。
githubについては、sugarsyncを使うのをやめた。ただ、githubで管理できないデータなどはクラウドストレージに上げる必要があるので、どうしようか悩んでいる。方法として、syncしたいデータだけ別フォルダに移す、もしくはawsなどにあげてしまう。
awsにあげるのはありだが、ネットが繋がらないときに作業できないのが辛い。
ファイルを検索する
デフォルトのfind
が遅いので調べていたらmdfind
というのがあった。
mdfind hogehoge
でhogehogeが入ったファイルを探せる。
風邪
今回の敗因
栄養不足。朝昼抜きを何回かしてしまった
寒いのに夜ぶらついた。
調子悪くなりそうな時に飲み会
体調
喉いたの自覚はあったものの寝て治ったと思ったらやはりダメ。
■
体調がやや悪化。
今回は2ヶ月弱持った。
やはりうがい手洗いかな
研究で時間を浪費するパターン
研究は熟考し呻吟し深い考察を得ることが真髄であることは論を俟たないが、生産性革命、働き方改革の時代、研究者に時間を浪費することは許されていない。
研究の質を犠牲にすることなく最速でアウトプットを出すためには時間の浪費を避けなければいけない。
以下に自分がよくやる浪費癖をアンチパターンとしてメモしておく。
ググりすぎる
自分の試したい方法の実装がない、エラーの解決方法がわからない、自分の主張を裏付けるちょうどいいデータや文献がない、といった場合にひたすらウェブの海を泳ぎまくることがよくある。試したい実装がなければ作ればいいし、エラーの解決方法はQiitaやStackoverflowでピシャリの回答がなければ自分でソースを読みに行くしかない、主張を裏付けるデータや文献が見つからなければそれを前提に論を組み立てればいい。 要は、手や頭を動かすことを回避するためにひたすら乗っかれる肩を探して時間を浪費している状況だ。努力もせず人のつくったものをタダで使おうという浅ましい根性が進捗ゼロの日々を生み出していく。 15分、あるいは1時間ウェブの海で泳いだら切り上げるべきだ。聞くにしても汎用性の高い検索アルゴリズムではなく専門家に聞くべきだ。
ほしい結果が出るまで無限にモデルをまわす
研究計画で使うデータとモデルは決定すべきである。結果が自分の想像と違ったならば、その結果をメモして次の計画を練るべきである。自分のほしい係数やp値を得るためにちょこちょこ外れ値除去やハイパーパラメータいじりをするのは研究ではなくハックである。どうせハックするなら効率的にすべきだ。つまり、ほしいp値に近づくような目的関数をもつモデルを書いてしまえばいい。しかし、それは本当に研究なのだろうか。
結果に自信がなく論文が書き終わらない
研究論文というものは投稿の時点で完璧である必要はない。投稿して、レビューを受けて、あるいは発表して指摘を受けて、そうしてブラッシュアップしていくものだ。パブリッシュされたものだって完璧ではない。どこまでやってどこまでできたかを書けばいい。寝食を忘れて良い結果を求めるのはいいが、その時間でできたほかのことに思いを馳せよう。
つらつら書いてきて要は時間の浪費は研究と自分の評価を切り離しきれていないことが原因な気がしてきた。つまり、評価を高めるために自分には本来できないことを人の技術でやろうとする無理からググり地獄が発生するし、研究の結果と自分の価値を同一視するから結果にこだわってハックに走ってしまう。また結果へのコミットもそうだ。要は研究は研究として自分の人格と別のものとして扱うべきなのだろう。