どーなつの連続性定理

1つ1つは発散しても最終的に収束したい/アメリカのどーなつもふわふわしている

Chainer Tutorial つづき

7. 単回帰分析と重回帰分析 — ディープラーニング入門:Chainer チュートリアル

これみて、

\frac{\partial}{\partial {\bf x}}({\bf x^T A x})=({\bf A+A^T}){\bf x}

がわかってないことがわかるなど。 2次元で要素に展開してこうなることはわかったけど、 一般化できていない。 今後の課題。

8. NumPy 入門 — ディープラーニング入門:Chainer チュートリアル

colab notebookおもしろい。 しかし、最初にimportのやつを動かさないと、その後のを1つだけ動かしても、エラーが出る。 f:id:doughnutomo:20190502031903p:plain stackoverflowで検索するというボタンがあるのも面白い。 (押すとどうなるかは調べてない) このrandom行列をつくるやつ、random.randomなのがどういうことなのか気になる。

ブロードキャストむずい。可能なのは、

「2 つの配列の各次元が同じ大きさになっているか、どちらかが 1 であること」 のとき。

逆行列はnp.linalg.inv() linalg = linear algebra ですね

numpy.linalg.solve()っていうのがなにをやっているのか?

w_ = np.linalg.solve(X.T.dot(X), X.T.dot(t))

また、

{\bf w} = ({\bf X^T X})^{-1}{\bf X^Tt}

なので、

({\bf X^T X}){\bf w} = {\bf X^Tt}

をいきなり解いているようにみえる。

9. scikit-learn 入門 — ディープラーニング入門:Chainer チュートリアル

眺めている。「べき変換」というワードがいきなり出てくる。 正規分布にたいしてべき乗の分布ということかな?

10. CuPy 入門 — ディープラーニング入門:Chainer チュートリアル

高速化。

11. Pandas 入門 — ディープラーニング入門:Chainer チュートリアル

おもしろそう

12. Matplotlib 入門 — ディープラーニング入門:Chainer チュートリアル

とりあえずがががっと眺めた。

あとで必要になったら戻ってこよう。 てかここまできて

13. ニューラルネットワークの基礎 — ディープラーニング入門:Chainer チュートリアル

13.1. 事前に読んでおく必要がある章 とでてきたので、別に飛ばしてもよかったっぽい?

というか、ここからなんか急に小難しくなった気がする・・・ チカチカしてきてよめない。。 なのでノートテイクしながらよむぞ。

13.3.3.2 のところ、実際に値を入れて計算しても、 なにやってんだかよくわからん。。。

目的関数、

回帰問題でよく用いられる平均二乗誤差 (mean squared error) 分類問題でよく用いられる交差エントロピー (cross entropy)

についてもこれらが何故いいのか?

勾配降下法はわかった。おもしろい。

この局所解が大域的最適解と一致する条件については、現在活発に研究が行われています。

とかみると、わくわくしますね。

13.4.4 「の」がおかしい。どうでもいいけど。

誤差逆伝播法 (backpropagation) もよくわからんなぁ

☆前の記事

biscuitomo.hatenablog.com

biscuitomo.hatenablog.com