Chainer Tutorial つづき
7. 単回帰分析と重回帰分析 — ディープラーニング入門:Chainer チュートリアル
これみて、
がわかってないことがわかるなど。 2次元で要素に展開してこうなることはわかったけど、 一般化できていない。 今後の課題。
8. NumPy 入門 — ディープラーニング入門:Chainer チュートリアル
colab notebookおもしろい。 しかし、最初にimportのやつを動かさないと、その後のを1つだけ動かしても、エラーが出る。 stackoverflowで検索するというボタンがあるのも面白い。 (押すとどうなるかは調べてない) このrandom行列をつくるやつ、random.randomなのがどういうことなのか気になる。
ブロードキャストむずい。可能なのは、
「2 つの配列の各次元が同じ大きさになっているか、どちらかが 1 であること」 のとき。
逆行列はnp.linalg.inv() linalg = linear algebra ですね
numpy.linalg.solve()っていうのがなにをやっているのか?
w_ = np.linalg.solve(X.T.dot(X), X.T.dot(t))
また、
なので、
をいきなり解いているようにみえる。
9. scikit-learn 入門 — ディープラーニング入門:Chainer チュートリアル
眺めている。「べき変換」というワードがいきなり出てくる。 正規分布にたいしてべき乗の分布ということかな?
10. CuPy 入門 — ディープラーニング入門:Chainer チュートリアル
高速化。
11. Pandas 入門 — ディープラーニング入門:Chainer チュートリアル
おもしろそう
12. Matplotlib 入門 — ディープラーニング入門:Chainer チュートリアル
とりあえずがががっと眺めた。
あとで必要になったら戻ってこよう。 てかここまできて
13. ニューラルネットワークの基礎 — ディープラーニング入門:Chainer チュートリアル
13.1. 事前に読んでおく必要がある章 とでてきたので、別に飛ばしてもよかったっぽい?
というか、ここからなんか急に小難しくなった気がする・・・ チカチカしてきてよめない。。 なのでノートテイクしながらよむぞ。
13.3.3.2 のところ、実際に値を入れて計算しても、 なにやってんだかよくわからん。。。
目的関数、
回帰問題でよく用いられる平均二乗誤差 (mean squared error) 分類問題でよく用いられる交差エントロピー (cross entropy)
についてもこれらが何故いいのか?
勾配降下法はわかった。おもしろい。
この局所解が大域的最適解と一致する条件については、現在活発に研究が行われています。
とかみると、わくわくしますね。
13.4.4 「の」がおかしい。どうでもいいけど。
誤差逆伝播法 (backpropagation) もよくわからんなぁ
☆前の記事