ゼロから作るDeep Learningでど素人がつまずいたことメモ 3章
3.3.1 多次元配列
1次元配列という概念がよくわかりませんでした。
A = np.array([1, 2, 3, 4])
B = np.array([[1], [2], [3], [4]])
これの差があまり良く分かりませんでした。
A.shape
>>>(4,)
B.shape
>>>(4,1)
となることは分かったのですが、行列のやりすぎ?で1次元配列というものに強烈な違和感を抱いています。
後々の行列の積のところでも、行列と1次元配列の積が出てきて???となりました。
これは数学科出身だから違和感を覚えているのでしょうか?
3.6.1 MNISTデータセット
そもそもカレントディレクトリーをch03にする方法がよくわからず右往左往していました。
まずそもそもこの本に書いてある
https://github.com/oreilly-japan/deep-learning-from-scratch
に行って、ダウンロードしないといけないことに気づくのに時間がかかりました。
それからはcd /Users/.../Downloads/deep-learning-from-scratch-master/ch03
とすればカレントディレクトリーをch03にできました。
(x_train, t_train), (x_test, t_test) = \
load_mnist(flatten=True, normalize=False)
の部分の \ ←これ何のためにあるのでしょうか。ただの行替えでしょうか。
分かる人教えていただければ非常にありがたいです。
3.6.2 ニューラルネットワークの推論処理
つまずいたことではないのですが、適当なタイミングでターミナルを終了していたので、定義した数式が残らないことにここら辺で気づきました。
感想
ここまでたまにつまずくことはあったものの何とか来れました。
Amazonのレビューで4章でつまずいたという意見をちらほら見たので少し次が不安です、、、、笑