「これならわかる深層学習 入門」 瀧 雅人著 の正誤表

機械学習スタートアップシリーズ これならわかる深層学習入門 (KS情報科学専門書)

機械学習スタートアップシリーズ これならわかる深層学習入門 (KS情報科学専門書)

瀧 雅人さんの「これならわかる深層学習 入門」 を読み始めました。
本屋でパラパラと見たところ、機械学習や深層学習に関して非常に丁寧に数式を使って説明してあるようでしたのできちんと一冊読んでみようという気になりました。
まだ最後まで読んでいませんが、いくつかタイポや書き間違えらしき部分がありましたので、自分用のメモも兼ねて書いておきます。

(誤) -----> (正) という書き方で書いています

[2017/1/13追記]
以下の正誤表でアスタリスクが不要としていましたが、Chapter1に「アスタリスクのついた節は若干アドバンスな内容ですので、最初は読み飛ばしてかまいません.」という記述があるのを読み飛ばしていましたので、正誤表を訂正しました.


[Chapter 2]

p.15 式 (2.11)右辺の \mathrm{x}_nはイタリック体の x_n

p15 式 (2.15)は以下のように修正
 E_{\mathcal{N}} [ \frac{1}{N} \sum_{n=1} ^N (x_n -\hat{\mu} )^2 ]
  =  E_{\mathcal{N}} [ \frac{1}{N} \sum_{n=1} ^N \left( (x_n - \mu )^2 - 2(x_n - \mu)(\hat{\mu} - \mu ) - (\hat{\mu} - \mu)^2 \right) ]

p.16 式 (2.20)
 \frac{1}{N^2} (\cdots) ----->  \frac{1}{N} (\cdots)

p.18 式 (2.25)の2行下
 \log L(\theta) = -N \log \sigma^2 - \cdots ------>  \log L(\theta) = -\frac{N}{2} \log \sigma^2 - \cdots

p.26 (2.45)の2行下
 L = (\omega) ----->  L(\omega)

p.35 定義2.5
 P(C_k | x_n) の前に \logが抜けている

[Chapter 4]
p.81 4.2.7 Adamの2行下
式(4.26) -----> 式(4.27)

p.91 4.4.3節のタイトル文章のアスタリスクが不必要
[Chapter 5]
p.100
式(5.15), 式(5.16), 式(5.17)の \omegaの右肩の添え字のカッコが不必要

[Chapter 6]
p.116
式(6.4)
d -----> y

p.119
(図 6.1)で \omega^{(l-1)} ----->  \omega^{(l)}

p.119 3行目の文中の式
 \omega^{(l)} (u^{(l-1)}) ----->  \omega^{(l)}f (u^{(l-1)})

p.119
式(6.9)
 \delta^{(l)} = \frac{\partial E}{\partial u^{(l)}} \frac{\partial u^{(l+1)} }{\partial u^{(l)}}=\cdots ---->  \delta^{(l)} = \frac{\partial E}{\partial u^{(l+1)}} \frac{\partial u^{(l+1)} }{\partial u^{(l)}}=\cdots

[Chapter 7]
p.134
式(7.7)の一行上
 D \times d ---->  d \times D

式(7.7)
 P \equiv \Gamma^\dagger \Gamma --->  P \equiv \Gamma  \Gamma^\dagger

p.146
演習 7.1
 l^{'} < l ----->  l < l^{'}

p.149
7.5 デノイジング自己符号化器 1行目
4.5節 ------> 5.5節

p.162
8.2.3, 8.2.4節のタイトルのアスタリスクが不必要


また、読み進めて気づけば追加していきます.