Galeria de mapas mentais Análise de rede clássica
Os recursos detalhados de algumas redes clássicas são apresentados e o conhecimento de AlexNet, ZLNet, VGG, GoogleNet e resnet é compartilhado.
Editado em 2023-07-27 22:46:54Il s'agit d'une carte mentale sur les anévrismes intracrâniens, avec le contenu principal, notamment: le congé, l'évaluation d'admission, les mesures infirmières, les mesures de traitement, les examens auxiliaires, les manifestations cliniques et les définitions.
Il s'agit d'une carte mentale sur l'entretien de comptabilité des coûts, le principal contenu comprend: 5. Liste des questions d'entrevue recommandées, 4. Compétences de base pour améliorer le taux de réussite, 3. Questions professionnelles, 2. Questions et réponses de simulation de scénarios, 1. Questions et réponses de capacité professionnelle.
Il s'agit d'une carte mentale sur les méthodes de recherche de la littérature, et son contenu principal comprend: 5. Méthode complète, 4. Méthode de traçabilité, 3. Méthode de vérification des points, 2. Méthode de recherche inversée, 1. Méthode de recherche durable.
Il s'agit d'une carte mentale sur les anévrismes intracrâniens, avec le contenu principal, notamment: le congé, l'évaluation d'admission, les mesures infirmières, les mesures de traitement, les examens auxiliaires, les manifestations cliniques et les définitions.
Il s'agit d'une carte mentale sur l'entretien de comptabilité des coûts, le principal contenu comprend: 5. Liste des questions d'entrevue recommandées, 4. Compétences de base pour améliorer le taux de réussite, 3. Questions professionnelles, 2. Questions et réponses de simulation de scénarios, 1. Questions et réponses de capacité professionnelle.
Il s'agit d'une carte mentale sur les méthodes de recherche de la littérature, et son contenu principal comprend: 5. Méthode complète, 4. Méthode de traçabilité, 3. Méthode de vérification des points, 2. Méthode de recherche inversée, 1. Méthode de recherche durable.
Análise de rede clássica
Alex Net
estrutura
8 andares no total
5 camadas convolucionais
3 camadas de camadas totalmente conectadas
efeito
Aprenda recursos estruturais de dados que sejam significativos para classificação
Descreva as informações estruturais na imagem de entrada
Os resultados da descrição são armazenados em 256 mapas de resposta de recursos 6x6
ZLNet
Mesma estrutura do AlexNet
Melhorar
Altere o kernel de convolução anterior para um tamanho menor
Aumente o tamanho do passo para extrair recursos com sucesso
Aumentar o número de kernels de convolução tardia
VGG
Rede neural de 16 camadas
13 camadas convolucionais
3 camadas totalmente conectadas
Melhorar
Use núcleos de convolução 3x3 menores em série para obter um campo receptivo maior
Maior profundidade, não linearidade mais forte e menos parâmetros de rede
Remova a camada LRN do AlexNet
Resumir
Vantagens do kernel de convolução pequeno
Vários kernels de convolução de tamanho pequeno conectados em série podem obter o mesmo campo receptivo que kernels de convolução de grande porte e requerem menos parâmetros de treinamento.
Razões para convolução para 512
Existem muitos parâmetros para coletar e expressar recursos tanto quanto possível
Se houver muitos parâmetros, será fácil superajustá-lo e não será adequado para treinamento.
GoogleNet
22º andar
Inovação
Proponha a estrutura inicial, que pode reter informações mais características do sinal de entrada
Adicione uma camada de gargalo e altere o número de canais de convolução
Remova a camada totalmente conectada e use o pool médio, resultando em apenas 5 milhões de parâmetros, 12 vezes menos que o AlexNet.
Um classificador auxiliar é introduzido no meio da rede para superar o problema do gradiente evanescente durante o treinamento.
Resumir
A diferença entre a vetorização média de pooling e a vetorização de expansão direta
O valor de cada posição no mapa de resposta ao recurso reflete a semelhança entre a estrutura da posição correspondente na imagem e a estrutura semântica registrada pelo kernel de convolução.
O pooling médio perde as informações de localização espacial das estruturas semânticas
Ignorar as informações de posição da estrutura semântica ajuda a melhorar a invariância de tradução dos recursos extraídos pela camada convolucional.
resnetar
Aprofunde as camadas da rede
Redes mais profundas parecem ser inferiores às redes mais superficiais
razão
Durante o processo de treinamento, as informações positivas e negativas da rede não fluem suavemente e a rede não está totalmente treinada.
Inovação
Módulo residual proposto
Ao empilhar módulos residuais, redes neurais de profundidade arbitrária podem ser construídas sem “degradação”.
normalização de lote proposta
Combata o desaparecimento do gradiente e reduza a dependência da inicialização do peso durante o treinamento em rede.
Proponha um método de inicialização para a função de ativação ReLU
Razões para o bom desempenho da rede residual
pode ser considerado um modelo integrado