Galleria mappe mentale Reti neurali e reti neurali convoluzionali di deep learning
Viene riepilogato il contenuto principale delle reti neurali convoluzionali, come concetti di base, operazioni di convoluzione, strutture di base, metodi di apprendimento dei parametri e alcune strutture di esempio di reti neurali convoluzionali.
Modificato alle 2023-02-26 23:13:29Questa è una mappa mentale su una breve storia del tempo. "Una breve storia del tempo" è un'opera scientifica popolare con un'influenza di vasta portata. Non solo introduce i concetti di base della cosmologia e della relatività, ma discute anche dei buchi neri e dell'espansione dell'universo. questioni scientifiche all’avanguardia come l’inflazione e la teoria delle stringhe.
Dopo aver letto "Il coraggio di essere antipatico", "Il coraggio di essere antipatico" è un libro filosofico che vale la pena leggere. Può aiutare le persone a comprendere meglio se stesse, a comprendere gli altri e a trovare modi per ottenere la vera felicità.
"Il coraggio di essere antipatico" non solo analizza le cause profonde di vari problemi nella vita, ma fornisce anche contromisure corrispondenti per aiutare i lettori a comprendere meglio se stessi e le relazioni interpersonali e come applicare la teoria psicologica di Adler nella vita quotidiana.
Questa è una mappa mentale su una breve storia del tempo. "Una breve storia del tempo" è un'opera scientifica popolare con un'influenza di vasta portata. Non solo introduce i concetti di base della cosmologia e della relatività, ma discute anche dei buchi neri e dell'espansione dell'universo. questioni scientifiche all’avanguardia come l’inflazione e la teoria delle stringhe.
Dopo aver letto "Il coraggio di essere antipatico", "Il coraggio di essere antipatico" è un libro filosofico che vale la pena leggere. Può aiutare le persone a comprendere meglio se stesse, a comprendere gli altri e a trovare modi per ottenere la vera felicità.
"Il coraggio di essere antipatico" non solo analizza le cause profonde di vari problemi nella vita, ma fornisce anche contromisure corrispondenti per aiutare i lettori a comprendere meglio se stessi e le relazioni interpersonali e come applicare la teoria psicologica di Adler nella vita quotidiana.
Reti neurali e apprendimento profondo rete neurale convoluzionale
Introduzione alla CNN
Anteprima tipica della struttura della CNN
proprietà di base
connessione sparsa
Rispetto alla rete FC completamente connessa, la CNN è una connessione locale, cioè l'uscita di un neurone nello strato precedente è collegata solo all'ingresso di diversi neuroni adiacenti nello strato successivo e all'ingresso di un neurone nello strato successivo strato riceve solo l'input dello strato precedente L'output di diversi neuroni vicini
Condivisione dei parametri
Campo ricettivo (campo visivo)
L'input di un neurone nello strato corrente è l'output di diversi neuroni vicini allo strato precedente, e ciò che viene percepito è l'output dei neuroni vicini nello strato precedente. Questa area di input è chiamata campo recettivo del neurone corrente.
Nucleo di convoluzione
I segnali all'interno del campo recettivo sono ponderati per formare l'attivazione del neurone corrente. I neuroni adiacenti hanno campi recettivi diversi ma uguali (indipendentemente dai confini).
L'attivazione di ciascun neurone è generata dalla somma ponderata dei segnali nei rispettivi campi sensoriali utilizzando lo stesso insieme di coefficienti di peso, cioè ogni neurone utilizza lo stesso vettore di coefficienti di peso. Questo insieme di coefficienti di peso condivisi è chiamato kernel di convoluzione .
Invarianza traslativa approssimativa
Una traslazione del segnale di ingresso ha la stessa traslazione del segnale di uscita
Le proprietà dell'operazione di convoluzione stessa, le proprietà di base dei sistemi lineari tempo-invarianti
Progettando adeguatamente l'unità di pooling e selezionando la funzione di attivazione, la CNN può mantenere approssimativamente l'invarianza di traslazione.
Esempio
Identificare un cane in un'immagine È ancora un cane dopo la traduzione.
Operazione di convoluzione e suo significato fisico
Operazione di convoluzione
Segnale di ingresso x(t)
Risposta all'impulso dell'unità di sistema h (t) (kernel di convoluzione CNN)
Segnale di uscita y(t)
Proprietà di convoluzione
Intercambiabilità
invarianza di traduzione
lunghezza completa della convoluzione
NK-1
Lunghezza effettiva della convoluzione
NK 1
significato fisico
filtro
filtro passa basso
Estrarre le componenti a bassa frequenza del segnale che cambiano lentamente
h1[n]={1/2,1/2}
filtro passa alto
Estrai componenti ad alta frequenza che cambiano rapidamente
h2[n]={1/2,-1/2}
filtro passa-banda
Estrarre ingredienti moderatamente vari
Funzione di filtro di convoluzione
Per un segnale complesso che contiene varie componenti di frequenza, diversi filtri implementati da diversi nuclei di convoluzione possono ottenere componenti di diverse scale variabili nel segnale.
filtraggio adattivo
L'errore tra l'output dello strato di output della rete e la risposta prevista viene utilizzato per addestrare la rete dello strato di output
L'algoritmo BP propaga all'indietro l'errore del livello di output a ciascuno strato precedente e addestra a turno i nuclei di convoluzione di ogni strato utilizzando l'errore di propagazione all'indietro.
La struttura della CNN di base
Convoluzione unidimensionale
Valore di attivazione dei neuroni
uscita dei neuroni
Funzione di attivazione lineare rettificata ReLU
z=massimo{0,a}
canale di convoluzione
Operazione di convoluzione tra input e operazione di attivazione del kernel di convoluzione
Confronta con la rete completamente connessa
Pochi parametri condivisi
Dividere e conquistare caratteristiche di input di diversa natura
Convoluzione 2D
formula
Comprensione dell'immagine
L'operazione di convoluzione bidimensionale equivale a far scorrere hij nell'array di dati Xij. Quando è necessario calcolare amn, h00 scorre per allinearsi con Xmn, quindi viene calcolato e aggiunto il termine del prodotto Xm in j hij.
La dimensione effettiva dell'output della convoluzione è (D1-K1 1)×(D2-K2 1)
livello di rilevamento
Calcolare la funzione di attivazione, l'output dei neuroni
convoluzione multicanale
Canale di convoluzione/piano di convoluzione
La matrice generata da ciascun kernel di convoluzione h attraverso l'operazione di convoluzione
Esempio
accedere
Immagine 32×32, 3 canali che rappresentano i tre colori primari RGB
Nucleo di convoluzione
6 kernel di convoluzione 5×5, due per ciascun canale di ingresso
produzione
Genera 6 canali di convoluzione 28×28
Raggruppamento
raggruppamento massimo
Pooling che accetta il valore massimo della finestra, ovvero seleziona il valore massimo all'interno di una piccola finestra come risultato del pooling
raggruppamento medio
Media all'interno della finestra come risultato del pooling
raggruppamento di decimazione
Valore del punto fisso all'interno della finestra come risultato del pooling
Proprietà della finestra
misurare
M1×M2
passo di pooling
S
Convoluzione con riempimento zero di uguale lunghezza
K è un numero dispari
Aggiungi (K-1)/2 zeri a entrambe le estremità dell'input
K è un numero pari
Aggiungi K/2 zeri su un lato e (K/2)-1 zeri sull'altro lato.
Costituire la CNN
Composizione degli strati convoluzionali
Fase dell'operazione di convoluzione
Livello di rilevamento (funzione ReLU)
Raggruppamento (facoltativo)
Tipica struttura di rete della CNN
Alcune strutture estese di convoluzione
convoluzione tensoriale
Volume dei dati 3D
nucleo di convoluzione tensoriale
piano di convoluzione
Convoluzione dimensionale del canale
Estrai diverse caratteristiche della dimensione del canale
Nucleo di convoluzione 1×1
Convoluzione del passo a S
Apprendimento dei parametri CNN
L’idea dell’algoritmo BP della CNN
propagazione in avanti
Calcolo della convoluzione dello strato di convoluzione
Uscita di attivazione del calcolo del livello FC completamente connesso
Il livello di pooling esegue il pooling
Propagazione all'indietro
Lo strato FC viene calcolato secondo l'algoritmo standard di backpropagation BP.
Algoritmo di backpropagation del livello convoluzionale e del livello di pooling
Formula di backpropagation per strati convoluzionali
Formula di backpropagation per lo strato di pooling
Espansione 2D
Introduzione all'esempio della CNN
Rete LeNet-5
Rete AlexNet e rete VGGNet
funzione di attivazione
La funzione di attivazione ReLU si allena 6 volte più velocemente della funzione di attivazione tanh
Struttura di AlexNet
Struttura VGGNet
Utilizza livelli più profondi, kernel di convoluzione più piccoli e più livelli di convoluzione corrispondenti a un livello di pooling.
Idee per migliorare gli effetti dell'allenamento
Ottieni migliori risultati di allenamento aumentando la profondità della CNN
Un aumento diretto del numero di strati porterà effetti negativi
Facile da adattare
il gradiente scompare
esplosione del gradiente
Rete GoogLeNet
Modulo di macro costruzione Inception
4 rami paralleli
Genera output ramificando e unendo moduli
Ogni ramo contiene una convoluzione 1×1
Lo scopo è dividere e conquistare per ridurre i parametri e la complessità computazionale
struttura
Reti residue e reti dense
rete residua
problema del degrado della rete
La precisione sul set di allenamento è satura o addirittura diminuisce.
Caratteristiche residue della rete
Facile da ottimizzare e può migliorare la precisione aggiungendo una notevole profondità
Il blocco residuo all'interno della rete residua utilizza connessioni skip, che alleviano il problema del gradiente evanescente causato dall'aumento della profondità nella rete neurale profonda.
elemento costitutivo residuo
struttura della griglia residua
fitta rete
Caratteristiche della rete densa
Mantenere la struttura della rete feedforward, collegando l'output dallo strato di input o dallo strato corrente all'input di ogni strato successivo
Per le reti a livello L, possono esserci connessioni L(L-1)/2
fitta struttura reticolare