funolympics’s blog

東大数学科生のAIを使い起業するまでのお話

ゼロから作るDeep Learningでど素人がつまずいたことメモ 3章

3.3.1 多次元配列

1次元配列という概念がよくわかりませんでした。

A = np.array([1, 2, 3, 4])

B = np.array([[1], [2], [3], [4]])

これの差があまり良く分かりませんでした。

A.shape

>>>(4,)

B.shape

>>>(4,1)

となることは分かったのですが、行列のやりすぎ?で1次元配列というものに強烈な違和感を抱いています。

後々の行列の積のところでも、行列と1次元配列の積が出てきて???となりました。

これは数学科出身だから違和感を覚えているのでしょうか?

 

3.6.1 MNISTデータセット

そもそもカレントディレクトリーをch03にする方法がよくわからず右往左往していました。

まずそもそもこの本に書いてある

https://github.com/oreilly-japan/deep-learning-from-scratch

に行って、ダウンロードしないといけないことに気づくのに時間がかかりました。

それからはcd /Users/.../Downloads/deep-learning-from-scratch-master/ch03

とすればカレントディレクトリーをch03にできました。

 

(x_train, t_train), (x_test, t_test) = \

    load_mnist(flatten=True, normalize=False)

の部分の \ ←これ何のためにあるのでしょうか。ただの行替えでしょうか。

分かる人教えていただければ非常にありがたいです。

 

3.6.2 ニューラルネットワークの推論処理

つまずいたことではないのですが、適当なタイミングでターミナルを終了していたので、定義した数式が残らないことにここら辺で気づきました。

 

感想

ここまでたまにつまずくことはあったものの何とか来れました。

Amazonのレビューで4章でつまずいたという意見をちらほら見たので少し次が不安です、、、、笑