TensorFlowハンズオン @Google

なんとなくTwitter見ていたら、六本木のGoogleでやるディープ・ラーニング(TensorFlow)のハンズオン会を見つけて応募したところ、とんでもない倍率になってしまい、もちろん落選、補欠待ちになった。

noname_20161220232220-00

まぁ補欠繰り上がりも無理なので、Youtube配信で受講することに。。。

アジェンダ

  1. 最近のデープ・ラーニング話題?(聴講できなかった、、、) 【サトウさん】
  2. ニューラルネットワークとディープ・ラーニングの話 【丸山不二夫さん(MaruLabo)】
  3. ハンズオンの環境整備 【シモダさん】
  4. TensorFlowでMNISTを動かしてみるハンズオン 【フルカワさん】

最近のデープ・ラーニング話題?(聴講できなかった、、、) 【サトウさん】

連絡が来たYoutubeのURLが間違ってて、上手く聞けなかったー。資料ほしー。

ニューラルネットワークとディープ・ラーニングの話 【丸山不二夫さん(MaruLabo)】

後から考えると、この話がメインだった気がする。資料が280ページ超えですごい。

ニューラルネットワークの基礎から、詳細計算の勘所までを分かりやすく解説してくださった。
DNNとCNNの違いとか、ニューロン、活性化関数、softmax、Backpropagation、クロスエントロピーの話、、、復讐すべきことがたーくさん!

ハンズオンの環境整備【シモダさん】

GCP(Google Cloud Platform)を使って、GCE(Google Compute Engine)を起動し、TensorFlowが動くようになるまでを順を追って解説。TensorBoardも動くように設定してみる。
vCPU×16のDebianマシンを立てて動かす。1ヶ月5万円近くの見積が出てきて、ちょっとヒヤリ。これがクラウドじゃなかったらと思うと怖い。

GCPの勉強にもなって良い感じ。きちんと追ってやってくれて優しい。

TensorFlowでMNISTを動かしてみるハンズオン 【フルカワさん】

ディープ・ラーニングの「Hello World!」的な存在であるMNIST(手書き数字の認識)をTensorFlowで体験。

なんだかんだで train.py の実行だけで30分近くかかってしまい、丸山さんは「ディープ・ラーニングでハンズオンしたいと思うのが間違ってるんですよ」なんて、、、それは言っちゃダメですよ。
学習ステップ20,000まで実行してみてからやってみると、明らかに1,000の時とは精度が変わったのを確認できて楽しい。

▼学習ステップ1,000のときの判定

「2」っぽく書いた数字が「6」として予測判定されている。。。

mnist-google-chrome_20161220213902-00

▼学習ステップ10,000のときの判定

予測がきちんと「2」になった。

mnist-google-chrome_20161220213912-00

これからどうする?

このままだと何の意味もないので、とにかくソースコードを読み込んでみることとする。

TensorBoardも掘れば掘れそう、少し読み込んでみようと。

▼TensorBoardでは図示されたグラフや、ステップが増えることに学習する様を確認できる

noname_20161221000439-00

 

 

 

 

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です