Registration info |
参加 ¥1000(Pay at the door)
FCFS
学生 Free
FCFS
|
---|
Description
USでのDLサミットの内容を纏めた内容が主軸になりますので、前回までのようにDeepLearningを"学びたい初学者向け"に作られているわけではありませんのでご注意ください。 シリコンバレーの空気感やDeepLearning市場の難しさなど、他のイベントでは示されないDeepLearningのマイナスの面を知って頂くのには面白いかと思います。
会場 レアジョブ本社
住所 東京都渋谷区神宮前6-27-8 京セラ原宿ビル2F
- 19:15〜19:30 開場
- 19:30〜19:35 イントロダクション
- 19:35〜20:05 DeepLearning Report
- 20:05~20:25 Q and A
- 20:25〜21:30 懇親会
今回一部ワークショップ等を設置する可能性がありますので、ぜひお立ち寄りください。
- 1,000円 ※懇親会の費用とさせて頂きます -(学生は無料)
発表者は情報のソースが乏しい時期から、C/C++/OpenCLをベースにしてDeepLearning系のライブラリ一式を組み上げた経験があることから、深層学習やパターン認識系の本の罠と、本には載っていない貴重な情報や、数式を全く使わない考え方を初学者向けに提供しています。
過去に以下のリンク先の勉強会を開催しています。
- DeepLearning Summit in San Francisco レポート
- 技術<データの重要性
- アンサンブル学習の重要性
- 認識に於ける2つの谷
DLサミットの内容を纏めた内容が主軸になりますので、DeepLearningを学びたい初学者向けに作られているわけではありませんのでご注意ください。 また若干ビジネス趣向に作られているスライドがありますので、シリコンバレーの空気感やDeepLearning市場の難しさなど、他のイベントでは示されないDeepLearningのマイナスの面を知って頂くのには面白いかと思います。
今までのセッションの内容
#8の内容
- 1~7までのダイジェスト
- DCNNの派生系DCGAN(Deep Convolutional Generative Adversarial Network)
- 生成モデルの概要
- DCGAN実践
- 変換モデルの概要
- スタイル変換実践
#7の内容
- DeepLearningの精度と計算時間
- ニューラルネットは分散しにくい
- パラメータ探査の困難さ(モンテカルロ法、遺伝的アルゴリズム、Q学習)
- CPUとGPUの性質
- GPGPUとトレードオフ(台所事情)
- DeepLearningに於けるアクセラレートポイント
- 失敗したOpenCLと、囲い込みのCUDA
- 設備投資について
- 費用対効果と相場
- 持つものと持たざるもので分かれる機械学習
#6の内容
- ニューラルネットワーク基礎
- 偏微分連鎖律と数式を無視する型破りなバックプロパゲーションの理解
- 教師あり学習のデモ
- Weightsを視覚化してみる
- DCNN(DeepConvolutionalNeuralNetwork)を徹底解剖します!
- Convolution層とMaxPoolingの働きについて
- Convolution層とMaxPoolingのバックプロパゲーションの理解
- Convolution層の多層化の意味について
- Convolution層のWeightsを視覚化してみる
- DCNNの派生系についてのお話
#5の内容
- ニューラルネットワーク基礎
- 偏微分連鎖律と数式を無視する型破りなバックプロパゲーションの理解
- 教師あり学習のデモ
- Weightsを視覚化してみる
- 教師なし学習のデモ
- 主成分分析を視覚化してみる
- DeepLearningの深さの利点について
- 失敗から学ぶ。勾配消失問題を味わってみよう!
- チューニングの全体像
- プレトレーニングは時代遅れ
- 失敗から学ぶニューラルネットワーク
- MLPに於ける失敗するパラメータの事例
- StackedAutoEncodersに於ける失敗するパラメータ事例
- DCNNに於ける失敗するパラメータ事例
#4の内容
- 多クラス分類について
- 教師ありデータ収集について
- オントロジーとは?
- オントロジーの定義の難しさ
- ImageNetやコンペティションの公共のデータ
- WEBクローラーの作り方
- BOT対策について
- データ解析ツールの作り方とOpenCV
- 漫画やサムネイル、別サイズの同じ画像の除去
- ラベル貼り付けとコストについて
#3の内容
大枠の概要
- DeepLearningの歴史と重要なネットワーク
- 選択すべきネットワークの形とそのメリット&目的の理解
- ライブラリの選択とセットアップ
- DCNNじゃなくてフルコネクションネットワークと画像解析
技術詳細
- 教師あり学習の基礎(Perceptron/MLP)
- 教師なし学習について
- 教師なし学習の役割と活用例
- AutoEncoder/StackedAutoEncodersで次元圧縮と分析
- AdamとSGDとAutoEncoderの成功と失敗パラメータ
#2の内容
大枠の概要
- DeepLearningの歴史と重要なネットワーク
- 選択すべきネットワークの形とそのメリット&目的の理解
- ライブラリの選択とセットアップ
- DCNNのパラメータ設定
技術詳細
- DCNNの形の理解
- PerceptronとMLPとDCNNの関係
- ニューラルネットワークの基礎
- PerceptronとMLPの予測計算を絵で理解する
- PerceptronとMLPのバックプロパゲーション計算を絵で理解する
#1の内容
大枠の概要
- DeepLearning専門用語解説
- 選択すべきネットワークの形とそのメリット&目的の理解
- ライブラリの選択とセットアップ
- データ読み込み機構とアウトプット機構(画像編)
- データ収集とWEBクローラー(画像編)
- ラベル付の効率化(画像編)
- DCNNのパラメータ設定
技術詳細
- データの水増し編 (アフィン変換、ノイズ、ディストーション、プロジェクション、カラー)
- データランダマイズサンプル
- ランダムデータと正規分布データ
- データ正規化(ZCA/PCA Whitening)
- 活性化関数の選択
- MaxOut実装方法
- バッチ正規化と最新の活性化関数ELU(ReLuじゃないヨ)
- L1/L2正則化とAdaGrad/RMSProp/AdaDelta/Adam/AdaMax
- オントロジーとデータ整頓
- 平均予測
- GPGPUの台所事情
Presenter
Media View all Media
If you add event media, up to 3 items will be shown here.