Kerasでmnist.load_data()したときにデフォルトでデータがセーブされる場所

WindowsでKerasのサンプルを実行したときの話です。
例えばmnist_cnn.pyを実行するとネットワークからmnistデータセットをはじめにロードしますが、そのファイルがおいてある場所は、
C:\Users\username\.keras\datasets
になります.

以下のソースコードを読めばデフォルトで置かれる場所がわかります.
C:\Users\username\Anaconda3\envs\envname\Lib\site-packages\keras\datasets\mnist.py

Kerasのバックエンドを変更する方法

Anacondaでpythonとtensorflow及びKerasをインストールしてpythonからimprot kerasを実行するとバックエンドがなぜかtheanoになってしまう問題の解決方法です。

解決方法:(環境変数を書き換える)

C:\Users\someone\Anaconda3\envs\someEnv\etc\conda\activate.d
以下にある, keras_activate.batを以下のように書き換える.
set "KERAS_BACKEND=tensorflow"
その後、いったんanaconda 環境をdeactivateして再びactivateするとkerasのバックエンドがtensorflowになります.


どうやらコマンドラインから
activate someEnv
とすると、anacondaの環境をactivate する際に
C:\Users\someone\Anaconda3\envs\someEnv\etc\conda\activate.d\keras_activate.bat
が実行されて
KERAS_BACKENDでtheanoがセットされてしまうようです。
Anaconda navigatorから仮想環境のコマンドプロンプトを立ち上げた場合にはこのbatch fileは実行されないので、kerasのデフォルトのバックエンドであるtensorflowがactiveになります。

ちなみにですが、上記環境変数とは別にkeras.jsonにKerasのバックエンドをしてしている記述があり、環境変数がない場合にはこちらが有効となるようですので、何かの時のために覚えておくといいと思います。
詳しくは以下のサイトを参照
qiita.com

「人工知能は人間を超えるか」 松尾 豊 著 を読みました

書店に行くと人工知能に関する解説書が山のようにならんでいて、人工知能ブームを
実感できますが、多くの本がネットや他の本の内容を寄せ集めただけのものだったりしますので、
限られた時間の中読む本を選ばないといけないです。
そんな中で、本著は解説書として真っ先にお勧めできます。
出版されたのが2015年ですので、変化の速いこの世界では2年の間に起こったことは膨大ですが
それでも本書は古臭くないです。
その理由は著者が現在の人工知能ブームと呼ばれる流行の前からずっと人工知能を研究し
何が重要で何が変化していくのかをよくわかっているからだと思います。
第1次、2次人工知能ブームから現在に至る研究や産業応用の歴史的経緯の説明から、
今なぜ大きな変革が起きようとしているのかその理由を明確に説明しています。
それは、一言で言うなら、機械学習により特徴量を自ら見つけられるようになったということ、
これにより概念というものをコンピュータが獲得できる可能性ができたということだと著者は述べています。
これを可能にする技術がディープラーニングで、これによりこれまで人工知能が乗り越えることができなかった
困難を乗り越えることができるかもしれないと書かれています。
将棋や囲碁でプロを負かすほどの人工知能には驚かされますが、かと言って実生活にディープラーニング
大きな影響を与えているようにはまだ感じることはありません。
しかし、本書を読みながら農業や生産現場あるいは直接は見えないネットの向こう側でディープラーニング技術が使われるようになり、
気づかないところでその恩恵を受ける日も遠くないのではと感じました。
これからディープラーニングについて勉強しようという方も、仕事で機械学習をバリバリと使いこなしているという方にも
お勧めできる守備範囲の広い本です。

機械学習の論文を効率よく読む方法

機械学習に関しては日々多くの論文が投稿されていて、すべてに目を通すことは時間的に難しいです。

以下のサイトでは、投稿される機械学習関連の論文をリスト化し簡単なサマリーが付けられているので
このサイトを見れば世の中のトレンドを知ることができます.
arXivTimes Indicator

このサイトに関する解説は以下を参照
[medium.com

arxivtimesのGitHub 機械学習関係の論文を調査し、共有するためのリポジトリ
github.com

arxivtimesのtwitter
twitter.com

利用するだけではなくて、余裕があればcontributeしたいです

proxyの設定

windowsのターミナルでpipでパッケージのインストールができないとき、
proxyの設定がされていなことが原因の場合があります.

解決方法:
ウィンドウズのシステム環境変数に以下の二つを追加すればよい.
https_proxy
http_proxy

「これならわかる深層学習 入門」 瀧 雅人著 の正誤表

機械学習スタートアップシリーズ これならわかる深層学習入門 (KS情報科学専門書)

機械学習スタートアップシリーズ これならわかる深層学習入門 (KS情報科学専門書)

瀧 雅人さんの「これならわかる深層学習 入門」 を読み始めました。
本屋でパラパラと見たところ、機械学習や深層学習に関して非常に丁寧に数式を使って説明してあるようでしたのできちんと一冊読んでみようという気になりました。
まだ最後まで読んでいませんが、いくつかタイポや書き間違えらしき部分がありましたので、自分用のメモも兼ねて書いておきます。

(誤) -----> (正) という書き方で書いています

[2017/1/13追記]
以下の正誤表でアスタリスクが不要としていましたが、Chapter1に「アスタリスクのついた節は若干アドバンスな内容ですので、最初は読み飛ばしてかまいません.」という記述があるのを読み飛ばしていましたので、正誤表を訂正しました.


[Chapter 2]

p.15 式 (2.11)右辺の \mathrm{x}_nはイタリック体の x_n

p15 式 (2.15)は以下のように修正
 E_{\mathcal{N}} [ \frac{1}{N} \sum_{n=1} ^N (x_n -\hat{\mu} )^2 ]
  =  E_{\mathcal{N}} [ \frac{1}{N} \sum_{n=1} ^N \left( (x_n - \mu )^2 - 2(x_n - \mu)(\hat{\mu} - \mu ) - (\hat{\mu} - \mu)^2 \right) ]

p.16 式 (2.20)
 \frac{1}{N^2} (\cdots) ----->  \frac{1}{N} (\cdots)

p.18 式 (2.25)の2行下
 \log L(\theta) = -N \log \sigma^2 - \cdots ------>  \log L(\theta) = -\frac{N}{2} \log \sigma^2 - \cdots

p.26 (2.45)の2行下
 L = (\omega) ----->  L(\omega)

p.35 定義2.5
 P(C_k | x_n) の前に \logが抜けている

[Chapter 4]
p.81 4.2.7 Adamの2行下
式(4.26) -----> 式(4.27)

p.91 4.4.3節のタイトル文章のアスタリスクが不必要
[Chapter 5]
p.100
式(5.15), 式(5.16), 式(5.17)の \omegaの右肩の添え字のカッコが不必要

[Chapter 6]
p.116
式(6.4)
d -----> y

p.119
(図 6.1)で \omega^{(l-1)} ----->  \omega^{(l)}

p.119 3行目の文中の式
 \omega^{(l)} (u^{(l-1)}) ----->  \omega^{(l)}f (u^{(l-1)})

p.119
式(6.9)
 \delta^{(l)} = \frac{\partial E}{\partial u^{(l)}} \frac{\partial u^{(l+1)} }{\partial u^{(l)}}=\cdots ---->  \delta^{(l)} = \frac{\partial E}{\partial u^{(l+1)}} \frac{\partial u^{(l+1)} }{\partial u^{(l)}}=\cdots

[Chapter 7]
p.134
式(7.7)の一行上
 D \times d ---->  d \times D

式(7.7)
 P \equiv \Gamma^\dagger \Gamma --->  P \equiv \Gamma  \Gamma^\dagger

p.146
演習 7.1
 l^{'} < l ----->  l < l^{'}

p.149
7.5 デノイジング自己符号化器 1行目
4.5節 ------> 5.5節

p.162
8.2.3, 8.2.4節のタイトルのアスタリスクが不必要


また、読み進めて気づけば追加していきます.

「機械学習入門」 大関 真之著 を読みました

機械学習入門 ボルツマン機械学習から深層学習まで

機械学習入門 ボルツマン機械学習から深層学習まで

表紙が機械学習の本の中ではトップクラスに機械学習らしくなくいい意味で手に取りやすいです。
タイトルに入門とあるように物語仕立てで機械学習のことを知らない人でも楽しんで読めるような内容になっています。
しかし、一方で著者は物理学から機械学習の研究者になり、学術論文もだしているような本物の研究者ですので、
書いてあることは正確で信頼できます。
私は機械学習や深層学習のことをある程度はしっていますので、あぁあのことを言ってるんだなと読んでいて気づいてしまい
タネを知っている手品を見ているような感じでしたが、全体知識がなくても少なくとも6章までは読み進められると思います。
6章から話が抽象的になり始めて理解しにくくなるように感じました。
それでも平易な説明で正確性を損なわずにそれでいて、物語仕立ても崩さずに説明しきっているところはこの手の本ではめったに見ないほどの力作だと感じました。
著者の更なる著作を期待しながら本書を読み終えました。