続き。
DNNのMNIST終わりました。咀嚼中。
次はCNNに行くかQ学習に戻るかで、戻る寄りで考えてる。
深層学習が簡単なの、多分DNNまでだよな。CNNちょっと見たけどむずいもん。RNNに至っては意味不明。
畳み込みって画像の奴でしょ?いらんくね?
と思いつつ流し読みしてたんだけど、俺の脳内だと畳み込みし得なんだが、実際どうなんだろう?
データ同士に繋がりがあれば畳み込んじゃなよって感じじゃないの?
だとすれば、何かにつけてC要素を入れたほうが精度出るようになるくね?
こんな事を思いつつネットサーフィンしてると、素人でも思いつく組み合わせで表に無い物は精度が悪い事が多いらしい。
名前を知らないだけか、実装困難な事情があるかは都度調べないとだけど。
なんか、レゴとかミニ四駆みたいな感じになってきてる。
パーツを組み合わせて最速を目指せ!で実質同じ。
ーーー
ここからどうするかを悩む。
・セット毎(今ならDNN)にデータ整形してスコアを取る。試走。
・理論重視で一通りつまみ食いする
どっちがどう、と言うことも無いのだけど、うーん。
上は面倒くさいよね。9割負け確定だし。
下は面白いけど定着しない感じがする。例題と具体例が人間を進歩させるのだ。
で、じゃあどうやって走るかが問題。
30日埋めて31日目を推測させるって事だと思うんだけど、今やった事って教師ありの分類だよな。あってます?
せめて教師あり回帰じゃないと使い道無いかな。
まぁこれは損失関数変えるだけでしょ。余裕の見通し。
ただ、絶対に何の意味もないから辛い。横がくっつかないのに30日入れるのアホすぎる。やっぱり畳み込みなんだよなぁ。
ーーー
明日はオリジナルデータを使ってDNN回帰で遊ぶ。
明後日Qを復習して、明々後日にDQNになればいいなと。
入力→層を通る→出力→誤差逆伝播→重み更新
この流れがあまりにも素晴らしい。
スライム倒せてレベル1って感じで気分もいいね。クリスマス辺りから始めて、やっと初級者を名乗れるレベルになったのでは。
あれ、25日も経ってるのか。やばいなサボりすぎや。