何事もシンプルにやるほうがいい

木曜日です。


昨日は早朝出社という地獄があったものの爆速退社して家でごろごろしていたので、なんとか出社できました。やはり家でごろごろは正義。

というわけで今日は昨日のぶんも含めて様々な雑務をやりました。他には社内微積勉強会で多変数のTaylor展開の説明をしました。

そういえば、社(労の場のこと)(用語が一貫しない)で「ゼロから作るDeep Learning」を読んだ方から「パーセプトロンの説明がシンプルすぎてこれでいいのか不安になった」といったような相談を受けました。ゼロDのパーセプトロンの説明はデータに対して正しい正解ラベルを当てられるような重みを求める手続きはこれだ!という感じの簡潔なものです(だったはず)(うろ覚え)。ところが、その方は旧来の教科書(主にPRML)を読んだ経験があったために「なんらかの最適化問題を解かなくてよいのか」と不安になったようでした。個人的にはまったくの初心者にいきなり最適化問題をを解かせるのはハードルが高く、ゼロDのようにまずは具体例を見せるのがよいと考えています(実際、ゼロDも後の章で最適化が改めて導入される)。旧来の理論先行型のノリがイマイチ機械学習がエンジニア界隈で流行らなかった理由なんじゃないかと思うのですがどうなんでしょうね(ポエム)。それはそれとして、理論面を軽く流して具体例を重視してやるのはよいのですが、その後につよいマシン環境を使うぞという現世度の高い方向にいってしまうのはなるほど〜という感じ(ゼロDのことではなくdeep全体のこと)。あらゆる方向でシンプルにしておくというのはやはりだめなのでしょうか。社会は厳しい。

deepといえば、私はイマイチdeepが好きではないので、自分以外の人が「deepをやっていくぞ!」という感じになったときに多少微妙に感じても「自分が好きではない補正があるぞ」ということを考慮して賛成するようにしているのですが、それがいいのかどうなのかよくわからないな〜と最近感じています。純粋に自分の判断を完全に信じて決断を下す場合、「これまでにないよさがあるが欠点もある」もの(=有益なもの)を滅ぼしてしまう危険があるので怖いと感じるのです。しかし、ではなんでも受け入れるのがいいのかというとそれもよくわからず、結局私自身がdeepのよさを感じるしかないのかという気持ちだったりします(しかしdeepはハード属性やツール属性が大きく関わってくるのでつらい)。

今日はピアノのレッスンがあったのでやや早めに退社しました。レッスンに向かう途中でMLPの新刊を購入しようと書店に立ち寄りました。今回の3冊では"画像認識"と"深層学習による自然言語処理"の2冊を買おうと思っていたのですが、NLP本のほうは入手できませんでした。定時前にNLP本を買い占めた人材なにものなんだ・・・。


帰宅後は軽く性ゲームをやりました。というわけで寝ます。