学習手法

ニューラルネットワークを疎にして推論を高速化(2/2)

1.ニューラルネットワークを疎にして推論を高速化(2/2)まとめ・密なバージョンから重みの一部を徐々にゼロにしていく事がスパース化のコツ・トレーニング時間の増加で品質を低下させることなく深層学習モデルをスパース化可能・スパースネットワークの...
学習手法

ニューラルネットワークを疎にして推論を高速化(1/2)

1.ニューラルネットワークを疎にして推論を高速化(1/2)まとめ・モデル最適化には大部分の重みが0に設定されているスパースニューラルネットワークが有効・しかし良く使われる畳み込みスパース化するツールとサポートするツールがなかった・XNNPA...
学習手法

GANのトレーニングに役立つ10のヒント

1.GANのトレーニングに役立つ10のヒントまとめ・GANのトレーニングが突然不安定になっても品質に留意しつつ続ける事が望ましい・モード崩壊は低い学習率でトレーニングを最初からやり直すと上手く行く事がある・スペクトル正規化はGANトレーニン...
基礎理論

ディープラーニングコースを受講した生徒からの興味深い質問(4/4)

1.ディープラーニングコースを受講した生徒からの興味深い質問(4/4)まとめ・パラメータ数は相関且つ冗長なためモデル容量の目安として最適ではない・モデル容量は一般化に関連するがDNNを把握するための概念ではなさそう・専門家以外の人に、AGI...
基礎理論

ディープラーニングコースを受講した生徒からの興味深い質問(3/4)

1.ディープラーニングコースを受講した生徒からの興味深い質問(3/4)まとめ・batchnormは使用した場所により効果が異なりSGDの分析が困難になる側面がある・embedding次元を決定する際はできるだけ大きなニューラルネットを使用す...
基礎理論

ディープラーニングコースを受講した生徒からの興味深い質問(2/4)

1.ディープラーニングコースを受講した生徒からの興味深い質問(2/4)まとめ・何を重視するかによってミニバッチとシングルバッチの優位性は異なる・一般化能力を最優先する場合はシングルバッチの方が優れているという見方もある・バッチ毎に正規化する...
基礎理論

ディープラーニングコースを受講した生徒からの興味深い質問(1/4)

1.ディープラーニングコースを受講した生徒からの興味深い質問(1/4)まとめ・バックプロパゲーションが脳に実装されていないことは生物学的制約のために非常に明白・神経科学の観点からはこれはバックプロパゲーションに対する批判に繋がる側面がある・...
学習手法

PAIRED:3つのエージェントを使って強化学習の効率を向上(2/2)

1.PAIRED:3つのエージェントを使って強化学習の効率を向上(2/2)まとめ・強化学習のシミュレーション環境を多様化して現実への転移を容易にする手法が求めらている・トレーニング環境を自動的に作成する教師なし環境デザイン(UED)は1つの...
学習手法

PAIRED:3つのエージェントを使って強化学習の効率を向上(1/2)

1.PAIRED:3つのエージェントを使って強化学習の効率を向上(1/2)まとめ・強化学習でシミュレートされたトレーニング環境を利用するケースが近年増加している・シミュレート環境の弱点は作成される環境が多様性を欠く事であり環境の自動構築が必...
インフラ

Google Colabのランタイムをリモートホストに設定する

1.Google Colabのランタイムをリモートホストに設定するまとめ・Google Colabのランタイムを自宅内のリモートPCに変更する際のメモ・リモートに直接接続する事は出来ないのでsshでポートフォワードする事になる・Tenfor...
インフラ

Google ColabのランタイムをGCEに設定する

1.Google ColabのランタイムをGCEに設定するまとめ・Google ColabのランタイムをGCEのインスタンスに変更する際のメモ・Google Cloud SDKとDeep Learning VMの組み合わせだと楽に変更できる...
基礎理論

EpochとBatch SizeとIterationsとNumber of batchesの違い

1.EpochとBatch SizeとIterationsとNumber of batchesの違いまとめ・エポックとは全学習データの事。サイズが多くなるので分割して処理する事が多い・エポックを分割したものをバッチと呼ぶ。バッチ内のデータ数...