労の終わりは近い(今年は)。

出社に成功しました(すごい)。

しかし出社後に頭痛がありました(つらい)。


労は定型業務をやりつつ論文を読みました。

物体認識まわりを最近調べています。この分野はclassification→detection→semantic segmentationという順番でタスクが難しくなっていくようで、なんとなくNLPのMA→DA→SAを思い起こさせる感じです。

今日はFast R-CNNの論文を読み終えて、Faster R-CNNに手をつけました。なんとなくわかるものの、はっきりしない部分もあり、これは(著者が公開している)コードを読めということなのか、私の知らない事前知識があるのか・・・。とりあえず物体認識はYOLOあたりまで読んだら、そろそろ最近のNLPについてもちゃんと調べていきたいところ。

そういえば、画像まわりを調べていて「たしかにdeepすごい」と感じることが多いです。NLPのdeepを見たときは「別にdeepでなくてもいいのでは・・・」という気持ちがあったので、この気持ちの差がなんなのか気になります。画像の特徴量は自明ではない感じ(bag of visual wordsとかいかにも人工っぽい)なので、deepで特徴量を抽出するというのは素直なシナリオに感じるのですが、NLPのbag of wordsは単語の集合なので直感的でdeepがなんとなく後付けっぽく感じてしまうような。

で、肝心のNLPも最近さぼりがちなので単語の分散表現とかも、そんなにうまくいくの感があったりして、ちゃんとまともなデータで自分で試してみないとだめだなという気持ちになっています(老人なので低次元表現は精度が落ちるイメージがある)(老人度が高い)。

そもそも単語のように疎な感じのやつはデータが少ないと特徴量がかすらないので低次元表現にしましょうみたいな話だったと記憶しているんですが、それだったら大量にデータが使えるならデータをどかっといれればいいじゃんというビッグデータ(死の言葉)的なあれになった感じだと思っていました。それがいつのまにやら低次元表現つよいまじ最強みたいになっていて、ちゃんと流れを追っていないから問題点が認識できていない感がつよく、やはりちゃんとやっていく必要があるという気持ちです。

労の場ではとにかく短期的な成果があれやこれやという感じですが、やはり成果とかそういったことを気にせず、やるべきことをやっていきたい気持ちになりました。明日は年内最終出社ですしね(関係ない)。


有益百合漫画である「すわっぷ⇔すわっぷ」を買いました。「もしかして私たち」「もしかして私たち」「入れ替わってるー?!」な作品です。

書店で1月ぶんのスニーカー文庫が出ていました。直感で「おにぎりスタッバー」を買ったのですが、魔法少女エクスカリバーが活躍する女性主人公ラノベでした。半分読みましたが異常によかった。


SSGをちょっとだけやりました。SSGは癒やし。


本日は以上です。あと1日で今年の労が終わるぞ!!!!!!!!(テンション↑↑↑↑)