マインドマップギャラリー ニューラルネットワーク
ニューラルネットワークに関するマインドマップです。一般的なコンボリューション カーネル、正則化、最適化、相互に接続された複数のニューロン、活性化関数などが含まれています。必要に応じて収集できます。
これはバクテリアに関するマインドマップであり、その主な内容には、概要、形態、種類、構造、生殖、分布、アプリケーション、および拡張が含まれます。概要は包括的で綿密で、レビュー資料として適しています。
これは、植物の無性生殖に関するマインドマップであり、その主な内容には、概念、胞子の生殖、栄養生殖、組織培養、芽が含まれます。概要は包括的で綿密で、レビュー資料として適しています。
これは、動物の生殖発達に関するマインドマップであり、その主な内容には、昆虫、カエル、鳥、性的生殖、無性生殖が含まれます。概要は包括的で綿密で、レビュー資料として適しています。
ニューラルネットワークの動作過程を詳しく解説
畳み込みニューラル ネットワーク (CNN)
ニューラル ネットワーク モデルの一般的なタイプとアプリケーション
ニューラル ネットワークとディープラーニング リカレント ニューラル ネットワーク
ニューラル ネットワークとディープラーニング 畳み込みニューラル ネットワーク
ニューラルネットワークとディープラーニングの基礎
改良されたシグモイド畳み込みニューラル ネットワークに基づく手書き数字認識
動的正則化を備えた畳み込みニューラル ネットワーク
従来のニューラルネットワーク
モデルの生成
ニューラルネットワーク
複数のニューロンが互いに接続されている
入力層
隠れ層
出力層
S=XWB
Wは重さです
Bはバイアスです
X は入力ベクトルです
活性化関数
シグモイド
σ(x)=1/(1 e^(-x) )
飽和特性により勾配が消えます
タン
Tanh(x)=2σ(x)-1
実数値は (-1, 1) の開区間に圧縮されます
ReLU (修正線形単位)
f(x)=max(0,x)
入力が 0 未満の領域にある場合、関数値は常に 0 となり、勾配は 0 になります。
ELU (リニアユニット)
右側の線形部分により、ELU は勾配消失を軽減できますが、左側のソフト飽和部分により、ELU は入力変化やノイズに対してより堅牢になります。
elu の出力平均はゼロに近い
損失関数 損失関数
スコア ベクトルと真のラベルの差が大きければ大きいほど、損失関数の値は大きくなり、その逆も同様です。
最適化
勾配降下法
ニュートン法
利点: 学習速度がありません。
欠点: 二次導関数の計算
改良されたアルゴリズム: LBFGS
正則化
ノルムの正則化
一般的に使用されるのは L2 正則化です
トレーニングを早めに終了する
正則化は過学習を制御し、ネットワークの過学習を弱める良い方法です。
高さと幅はニューロンの空間サイズを決定し、深さは入力領域からの特徴抽出の次元を決定します (各ニューロンは 1 つの特徴を抽出します)。
一般的な畳み込みカーネル
画像ブラー畳み込みカーネル: [1 1 1; 1 1 1]/9
画像鮮明化のためのコンボリューション カーネル: [-1 -1 -1; -1 -1 -1]
エッジ検出用のコンボリューションカーネル
ソーベル:[-1 -2 -1;] とその転置
Prewitt:[-1 -1 -1;] とその転置
ラプラス:[1 1 1 -8 1;