マインドマップギャラリー 古典的なネットワーク分析
いくつかの古典的なネットワークの詳細な機能が紹介され、AlexNet、ZLNet、VGG、GoogleNet、および resnet の知識が共有されます。
これはバクテリアに関するマインドマップであり、その主な内容には、概要、形態、種類、構造、生殖、分布、アプリケーション、および拡張が含まれます。概要は包括的で綿密で、レビュー資料として適しています。
これは、植物の無性生殖に関するマインドマップであり、その主な内容には、概念、胞子の生殖、栄養生殖、組織培養、芽が含まれます。概要は包括的で綿密で、レビュー資料として適しています。
これは、動物の生殖発達に関するマインドマップであり、その主な内容には、昆虫、カエル、鳥、性的生殖、無性生殖が含まれます。概要は包括的で綿密で、レビュー資料として適しています。
コンピュータビジョンデジタル画像処理
完全に接続されたニューラルネットワーク
畳み込みニューラル ネットワーク
注意メカニズム
モデルの生成
コンボリューション、ノイズ除去、エッジ抽出
コンピュータービジョンとディープラーニング
主要な深層学習モデル
BEVのセンシング方向の学習シーケンス
古典的なネットワーク分析
アレックスネット
構造
全8フロア
5つの畳み込み層
完全に接続された 3 層の層
効果
分類に意味のあるデータから構造的特徴を学習する
入力画像の構造情報を記述する
記述結果は 256 個の 6x6 特徴応答マップに保存されます
ZLネット
AlexNet と同じ構造
改善する
以前のコンボリューション カーネルをより小さいサイズに変更します
特徴を正常に抽出するにはステップ サイズを大きくします
後期畳み込みカーネルの数を増やす
VGG
16層ニューラルネットワーク
13 畳み込み層
完全に接続された 3 つの層
より大きな受容野を得るために、より小さな 3x3 コンボリューション カーネルを直列に使用します。
より深い深さ、より強い非線形性、より少ないネットワークパラメータ
AlexNet の LRN 層を削除する
要約する
小型コンボリューションカーネルの利点
直列に接続された複数の小型コンボリューション カーネルは、大型コンボリューション カーネルと同じ受容野を取得でき、必要なトレーニング パラメータが少なくなります。
512 への畳み込みの理由
特徴をできるだけ集めて表現するためにパラメータがたくさんあります
パラメータが多すぎると過学習になりやすく、学習には適しません。
グーグルネット
22階
革新
入力信号のより特徴的な情報を保持できる開始構造を提案
ボトルネック層を追加し、畳み込みチャネルの数を変更する
完全に接続された層を削除し、平均プーリングを使用すると、パラメーターはわずか 500 万個となり、AlexNet の 12 分の 1 になります。
トレーニング中の勾配消失の問題を克服するために、補助分類器がネットワークの途中に導入されます。
平均プーリングベクトル化と直接拡張ベクトル化の違い
特徴応答マップ上の各位置の値は、画像内の対応する位置の構造と、コンボリューション カーネルによって記録された意味構造との間の類似性を反映しています。
平均プーリングにより意味構造の空間的位置情報が失われる
意味構造の位置情報を無視することは、畳み込み層によって抽出された特徴の翻訳不変性を改善するのに役立ちます。
レスネット
ネットワーク層を深くする
深いネットワークは浅いネットワークよりも劣っているように見える
理由
トレーニング プロセス中、ネットワークのポジティブな情報とネガティブな情報はスムーズに流れず、ネットワークは完全にはトレーニングされません。
提案された残差モジュール
残ったモジュールを積み重ねることにより、任意の深さのニューラルネットワークを「劣化」することなく構築できます。
提案されたバッチ正規化
ネットワークトレーニング中の勾配の消失と闘い、重みの初期化への依存を減らします。
ReLU活性化関数の初期化手法を提案
残余ネットワークのパフォーマンスが良い理由
統合モデルとみなすことができる