Galeria de mapas mentais Redes Neurais e Redes Neurais Convolucionais de Aprendizado Profundo
O conteúdo principal das redes neurais convolucionais é resumido, como conceitos básicos, operações de convolução, estruturas básicas, métodos de aprendizagem de parâmetros e alguns exemplos de estruturas de redes neurais convolucionais.
Editado em 2023-02-26 23:13:29Microbiologia medica, Infezioni batteriche e immunità riassume e organizza i punti di conoscenza per aiutare gli studenti a comprendere e ricordare. Studia in modo più efficiente!
La teoria cinetica dei gas rivela la natura microscopica dei fenomeni termici macroscopici e le leggi dei gas trovando la relazione tra quantità macroscopiche e quantità microscopiche. Dal punto di vista del movimento molecolare, vengono utilizzati metodi statistici per studiare le proprietà macroscopiche e modificare i modelli di movimento termico delle molecole di gas.
Este é um mapa mental sobre uma breve história do tempo. "Uma Breve História do Tempo" é um trabalho científico popular com influência de longo alcance. Ele não apenas introduz os conceitos básicos da cosmologia e da relatividade, mas também discute os buracos negros e a expansão. Do universo. questões científicas de ponta, como inflação e teoria das cordas.
Microbiologia medica, Infezioni batteriche e immunità riassume e organizza i punti di conoscenza per aiutare gli studenti a comprendere e ricordare. Studia in modo più efficiente!
La teoria cinetica dei gas rivela la natura microscopica dei fenomeni termici macroscopici e le leggi dei gas trovando la relazione tra quantità macroscopiche e quantità microscopiche. Dal punto di vista del movimento molecolare, vengono utilizzati metodi statistici per studiare le proprietà macroscopiche e modificare i modelli di movimento termico delle molecole di gas.
Este é um mapa mental sobre uma breve história do tempo. "Uma Breve História do Tempo" é um trabalho científico popular com influência de longo alcance. Ele não apenas introduz os conceitos básicos da cosmologia e da relatividade, mas também discute os buracos negros e a expansão. Do universo. questões científicas de ponta, como inflação e teoria das cordas.
Redes Neurais e Aprendizado Profundo rede neural convolucional
Introdução à CNN
Visualização típica da estrutura da CNN
propriedades básicas
conexão esparsa
Comparada com a rede FC totalmente conectada, a CNN é uma conexão local, ou seja, a saída de um neurônio na camada anterior está conectada apenas à entrada de vários neurônios adjacentes na próxima camada, e a entrada de um neurônio na próxima camada camada recebe apenas a entrada da camada anterior A saída de vários neurônios vizinhos.
Compartilhamento de parâmetros
Campo receptivo (campo de visão)
A entrada de um neurônio na camada atual é a saída de vários neurônios próximos à camada anterior, e o que se sente é a saída dos neurônios vizinhos na camada anterior. Essa área de entrada é chamada de campo receptivo do neurônio atual.
Kernel de convolução
Os sinais dentro do campo receptivo são ponderados para formar a ativação do neurônio atual. Os neurônios adjacentes têm campos receptivos diferentes, mas iguais (independentemente dos limites).
A ativação de cada neurônio é gerada pela soma ponderada dos sinais em seus respectivos campos sensoriais utilizando o mesmo conjunto de coeficientes de peso, ou seja, cada neurônio utiliza o mesmo vetor de coeficiente de peso. Esse conjunto de coeficientes de peso compartilhados é chamado de núcleo de convolução. .
Invariância de tradução aproximada
Uma tradução do sinal de entrada tem a mesma tradução do sinal de saída
As propriedades da própria operação de convolução, as propriedades básicas dos sistemas lineares invariantes no tempo
Ao projetar adequadamente a unidade de pooling e selecionar a função de ativação, a CNN pode manter aproximadamente a invariância da tradução.
Exemplo
Identifique um cachorro em uma imagem. Ainda é um cachorro após a tradução.
Operação de convolução e seu significado físico
Operação de convolução
Sinal de entrada x(t)
Resposta ao impulso da unidade do sistema h(t) (kernel de convolução CNN)
Sinal de saída y(t)
Propriedades de convolução
Intercambiabilidade
invariância de tradução
comprimento total de convolução
N-K-1
Comprimento efetivo de convolução
N-K 1
significado físico
filtro
filtro passa-baixo
Extraia os componentes de baixa frequência do sinal que mudam lentamente
h1[n]={1/2,1/2}
filtro passa-alta
Extraia componentes de sinais de alta frequência que mudam rapidamente
h2[n]={1/2,-1/2}
filtro passa-banda
Extraia ingredientes moderadamente variados
Função de filtro de convolução
Para um sinal complexo que contém vários componentes de frequência, diferentes filtros implementados por diferentes núcleos de convolução podem obter componentes de diferentes escalas variáveis no sinal.
filtragem adaptativa
O erro entre a saída da camada de saída da rede e a resposta esperada é usado para treinar a rede da camada de saída
O algoritmo BP propaga retroativamente o erro da camada de saída para cada camada anterior e treina os núcleos de convolução de cada camada usando o erro de retropropagação.
A estrutura da CNN básica
Convolução unidimensional
Valor de ativação de neurônios
saída de neurônios
Função de ativação linear retificada ReLU
z=máx{0,a}
canal de convolução
Operação de convolução entre entrada e kernel de convolução Operação da função de ativação
Compare com uma rede totalmente conectada
Poucos parâmetros compartilhados
Divida e conquiste recursos de entrada de diferentes naturezas
Convolução 2D
Fórmula
Compreensão da imagem
A operação de convolução bidimensional é equivalente a deslizar hij na matriz de dados Xij. Quando amn precisa ser calculado, h00 desliza para se alinhar com Xmn e então o termo de produto Xm em j hij é calculado e adicionado.
O tamanho efetivo da saída de convolução é (D1-K1 1)×(D2-K2 1)
nível de detecção
Calcule a função de ativação, saída do neurônio
convolução multicanal
Canal de convolução/plano de convolução
A matriz gerada por cada kernel de convolução h por meio da operação de convolução
Exemplo
digitar
Imagem 32×32, 3 canais representando RGB três cores primárias
Kernel de convolução
6 núcleos de convolução 5×5, dois para cada canal de entrada
saída
Gera 6 canais de convolução 28×28
Agrupamento
pool máximo
Pooling que utiliza o valor máximo da janela, ou seja, seleciona o valor máximo dentro de uma pequena janela como resultado do pooling
agrupamento médio
Média dentro da janela como resultado do pool
pool de dizimação
Valor de ponto fixo dentro da janela como resultado do pool
propriedades da janela
tamanho
M1×M2
juntando passos
S
Convolução de preenchimento zero de comprimento igual
K é um número ímpar
Adicione (K-1)/2 zeros a ambas as extremidades da entrada
K é um número par
Adicione K/2 zeros a um lado e (K/2)-1 zeros ao outro lado.
Constituir CNN
Composição de camadas convolucionais
Estágio de operação de convolução
Nível de detecção (função ReLU)
Agrupamento (opcional)
Estrutura típica da rede CNN
Algumas estruturas estendidas de convolução
convolução tensorial
Volume de dados 3D
kernel de convolução tensorial
plano de convolução
Convolução dimensional do canal
Extraia diferentes características da dimensão do canal
Kernel de convolução 1×1
Convolução de passada em S
Aprendizagem de parâmetros CNN
Ideia de algoritmo BP da CNN
propagação direta
Cálculo de convolução da camada de convolução
Saída de ativação de cálculo totalmente conectada da camada FC
A camada de pooling executa o pooling
Retropropagação
A camada FC é calculada de acordo com o algoritmo padrão de retropropagação BP.
Algoritmo de retropropagação de camada convolucional e camada de pooling
Fórmula de retropropagação para camadas convolucionais
Fórmula de retropropagação para camada de pooling
Expansão 2D
Introdução de exemplo da CNN
Rede LeNet-5
Rede AlexNet e rede VGGNet
função de ativação
A função de ativação ReLU treina 6 vezes mais rápido que a função de ativação tanh
Estrutura AlexNet
Estrutura da VGGNet
Use camadas mais profundas, núcleos de convolução menores e múltiplas camadas de convolução correspondentes a uma camada de pooling.
Ideias para melhorar os efeitos do treinamento
Obtenha melhores resultados de treinamento aumentando a profundidade da CNN
Um aumento direto no número de camadas trará efeitos negativos
Fácil de superajustar
gradiente desaparece
explosão gradiente
Rede GoogLeNet
Módulo de construção macro Inception
4 ramos paralelos
Gere saída ramificando e mesclando módulos
Cada ramo contém uma convolução 1×1
O objetivo é dividir e conquistar para reduzir parâmetros e complexidade computacional
estrutura
Redes residuais e redes densas
rede residual
problema de degradação da rede
A precisão do conjunto de treinamento está saturada ou até cai.
Características residuais da rede
Fácil de otimizar e pode melhorar a precisão adicionando profundidade considerável
O bloco residual dentro da rede residual usa conexões de salto, o que alivia o problema do gradiente de desaparecimento causado pelo aumento da profundidade na rede neural profunda.
bloco de construção residual
estrutura de grade residual
rede densa
Características de rede densa
Manter a estrutura da rede feedforward, conectando a saída da camada de entrada ou da camada atual à entrada de cada camada subsequente
Para redes de camada L, pode haver conexões L(L-1)/2
estrutura de rede densa