마인드 맵 갤러리 신경망과 딥러닝 컨볼루셔널 신경망
기본 개념, 컨볼루션 연산, 기본 구조, 매개변수 학습 방법 및 일부 컨볼루션 신경망 예제 구조와 같은 컨볼루션 신경망의 주요 내용이 요약되어 있습니다.
2023-02-26 23:13:29에 편집됨이것은 (III) 저산소증-유도 인자 프롤릴 하이드 록 실라 제 억제제에 대한 마인드 맵이며, 주요 함량은 다음을 포함한다 : 저산소증-유도 인자 프롤릴 하이드 록 실라 제 억제제 (HIF-PHI)는 신장 빈혈의 치료를위한 새로운 소형 분자 경구 약물이다. 1. HIF-PHI 복용량 선택 및 조정. Rosalasstat의 초기 용량, 2. HIF-PHI 사용 중 모니터링, 3. 부작용 및 예방 조치.
이것은 Kuka Industrial Robots의 개발 및 Kuka Industrial Robot의 모션 제어 지침에 대한 마인드 맵입니다. 주요 내용에는 쿠카 산업 로봇의 역사, 쿠카 산업 로봇의 특성, 쿠카 산업 로봇의 응용 분야, 2. 포장 프로세스에서 쿠카 로봇은 빠르고 일관된 포장 작업을 달성하고 포장 효율성을 높이며 인건비를 줄입니다. 2. 인건비 감소 : 자동화는 운영자에 대한 의존성을 줄입니다. 3. 조립 품질 향상 : 정확한 제어는 인간 오류를 줄입니다.
408 컴퓨터 네트워크가 너무 어렵습니까? 두려워하지 마세요! 나는 피를 구토하고 지식 맥락을 명확히하는 데 도움이되는 매우 실용적인 마인드 맵을 분류했습니다. 컨텐츠는 매우 완전합니다. 네트워크 아키텍처에서 응용 프로그램 계층, TCP/IP 프로토콜, 서브넷 디비전 및 기타 핵심 포인트에 이르기까지 원칙을 철저히 이해하는 데 도움이 될 수 있습니다. 📈 명확한 논리 : Mindmas 보물, 당신은 드문 기회가 있습니다. 서둘러! 이 마인드 맵을 사용하여 408 컴퓨터 네트워크의 학습 경로에서 바람과 파도를 타고 성공적으로 해변을 얻으십시오! 도움이 필요한 친구들과 공유해야합니다!
이것은 (III) 저산소증-유도 인자 프롤릴 하이드 록 실라 제 억제제에 대한 마인드 맵이며, 주요 함량은 다음을 포함한다 : 저산소증-유도 인자 프롤릴 하이드 록 실라 제 억제제 (HIF-PHI)는 신장 빈혈의 치료를위한 새로운 소형 분자 경구 약물이다. 1. HIF-PHI 복용량 선택 및 조정. Rosalasstat의 초기 용량, 2. HIF-PHI 사용 중 모니터링, 3. 부작용 및 예방 조치.
이것은 Kuka Industrial Robots의 개발 및 Kuka Industrial Robot의 모션 제어 지침에 대한 마인드 맵입니다. 주요 내용에는 쿠카 산업 로봇의 역사, 쿠카 산업 로봇의 특성, 쿠카 산업 로봇의 응용 분야, 2. 포장 프로세스에서 쿠카 로봇은 빠르고 일관된 포장 작업을 달성하고 포장 효율성을 높이며 인건비를 줄입니다. 2. 인건비 감소 : 자동화는 운영자에 대한 의존성을 줄입니다. 3. 조립 품질 향상 : 정확한 제어는 인간 오류를 줄입니다.
408 컴퓨터 네트워크가 너무 어렵습니까? 두려워하지 마세요! 나는 피를 구토하고 지식 맥락을 명확히하는 데 도움이되는 매우 실용적인 마인드 맵을 분류했습니다. 컨텐츠는 매우 완전합니다. 네트워크 아키텍처에서 응용 프로그램 계층, TCP/IP 프로토콜, 서브넷 디비전 및 기타 핵심 포인트에 이르기까지 원칙을 철저히 이해하는 데 도움이 될 수 있습니다. 📈 명확한 논리 : Mindmas 보물, 당신은 드문 기회가 있습니다. 서둘러! 이 마인드 맵을 사용하여 408 컴퓨터 네트워크의 학습 경로에서 바람과 파도를 타고 성공적으로 해변을 얻으십시오! 도움이 필요한 친구들과 공유해야합니다!
신경망과 딥러닝 컨벌루션 신경망
CNN 소개
일반적인 CNN 구조 미리보기
기본 속성
희박한 연결
완전 연결 네트워크 FC와 비교할 때 CNN은 로컬 연결입니다. 즉, 이전 계층의 뉴런의 출력은 다음 계층의 여러 인접 뉴런의 입력에만 연결되고 다음 계층의 뉴런의 입력은 연결됩니다. 레이어는 이전 레이어의 입력만 수신하며, 인접한 여러 뉴런의 출력만 받습니다.
매개변수 공유
수용 필드(시야)
현재 레이어에 있는 뉴런의 입력은 이전 레이어 근처에 있는 여러 뉴런의 출력이고, 느껴지는 것은 이전 레이어에 있는 이웃 뉴런의 출력이다. 이 입력 영역을 현재 뉴런의 수용장이라고 한다.
컨볼루션 커널
수용 필드 내의 신호에 가중치를 부여하여 현재 뉴런의 활성화를 형성합니다. 인접한 뉴런은 다르지만 동일한 수용 필드를 갖습니다(경계에 관계 없음).
각 뉴런의 활성화는 동일한 가중치 계수 세트를 사용하여 각 감각 필드의 신호를 가중 합산하여 생성됩니다. 즉, 각 뉴런은 동일한 가중치 계수 벡터를 사용합니다. 이 공유 가중치 계수 세트를 컨볼루션 커널이라고 합니다. .
대략적인 번역 불변성
입력 신호의 변환은 출력 신호의 변환과 동일합니다.
컨볼루션 연산 자체의 속성, 선형 시불변 시스템의 기본 속성
풀링 유닛을 적절하게 설계하고 활성화 함수를 선택함으로써 CNN은 변환 불변성을 대략적으로 유지할 수 있습니다.
예
이미지에서 개를 식별하세요. 번역 후에도 여전히 개입니다.
컨볼루션 연산과 물리적 의미
컨볼루션 연산
입력 신호 x(t)
시스템 유닛 임펄스 응답 h(t)(CNN 컨볼루션 커널)
출력 신호 y(t)
컨볼루션 속성
호환성
번역 불변성
전체 컨볼루션 길이
N K-1
유효 컨볼루션 길이
N-K 1
물리적 의미
필터
저역 통과 필터
천천히 변화하는 신호의 저주파 성분 추출
h1[n]={1/2,1/2}
하이패스 필터
빠르게 변화하는 신호의 고주파 성분 추출
h2[n]={1/2,-1/2}
대역통과 필터
적당히 가변적인 성분 추출
컨볼루션 필터 기능
다양한 주파수 성분을 포함하는 복잡한 신호의 경우, 다양한 컨볼루션 커널로 구현된 다양한 필터를 사용하여 신호에서 다양한 스케일의 성분을 얻을 수 있습니다.
적응 필터링
네트워크 출력 계층의 출력과 예상 응답 간의 오류는 출력 계층 네트워크를 훈련하는 데 사용됩니다.
BP 알고리즘은 출력 레이어 오류를 각 이전 레이어로 역전파하고, 역전파 오류를 사용하여 차례로 각 레이어의 컨볼루션 커널을 학습시킵니다.
기본 CNN의 구조
1차원 컨볼루션
뉴런 활성화 값
뉴런 출력
수정된 선형 활성화 함수 ReLU
z=최대{0,a}
컨볼루션 채널
입력과 컨볼루션 커널 활성화 기능 간의 컨볼루션 연산
완전히 연결된 네트워크와 비교
공유 매개변수가 거의 없음
다양한 성격의 입력 특성을 분할하고 정복하세요.
2D 컨볼루션
공식
이미지 이해
2차원 컨벌루션 작업은 Xij 데이터 배열에서 hij를 슬라이딩하는 것과 동일합니다. amn을 계산해야 할 때 h00은 Xmn과 정렬되도록 슬라이드한 다음 j hij의 곱 항 Xm을 계산하여 추가합니다.
효과적인 컨벌루션 출력 크기는 (D1-K1 1)×(D2-K2 1)입니다.
탐지 수준
활성화 함수, 뉴런 출력 계산
다중 채널 컨볼루션
컨볼루션 채널/컨볼루션 평면
컨볼루션 연산을 통해 각 컨볼루션 커널 h가 생성한 행렬
예
입력하다
32×32 이미지, RGB 3원색을 나타내는 3개 채널
컨볼루션 커널
6개의 5×5 컨볼루션 커널(각 입력 채널당 2개)
산출
6개의 28×28 컨볼루션 채널을 생성합니다.
풀링
최대 풀링
윈도우의 최대값을 취하는 풀링, 즉 작은 윈도우 내의 최대값을 풀링 결과로 선택하는 풀링
평균 풀링
풀링 결과로 창 내 평균
데시메이션 풀링
풀링 결과로 창 내의 고정 포인트 값
창 속성
크기
M1×M2
풀링 보폭
에스
동일한 길이의 제로 패딩 컨벌루션
K는 홀수이다
입력의 양쪽 끝에 (K-1)/2개의 0을 추가합니다.
K는 짝수이다
한 쪽에 K/2 0을 추가하고 다른 쪽에 (K/2)-1 0을 추가합니다.
CNN을 구성하다
컨벌루션 레이어의 구성
컨볼루션 연산 단계
감지 수준(ReLU 기능)
풀링(선택 사항)
일반적인 CNN 네트워크 구조
일부 확장된 컨볼루션 구조
텐서 컨벌루션
3D 데이터 볼륨
텐서 컨볼루션 커널
컨볼루션 평면
채널 차원 컨볼루션
채널 차원의 다양한 특징 추출
1×1 컨볼루션 커널
S-스트라이드 컨볼루션
CNN 매개변수 학습
CNN의 BP 알고리즘 아이디어
순방향 전파
컨볼루션 레이어 컨볼루션 계산
FC 레이어 완전 연결 계산 활성화 출력
풀링 계층은 풀링을 수행합니다.
역전파
FC 레이어는 표준 BP 역전파 알고리즘에 따라 계산됩니다.
컨벌루션 계층 및 풀링 계층 역전파 알고리즘
컨벌루션 레이어의 역전파 공식
풀링 계층의 역전파 공식
2D 확장
CNN 사례 소개
LeNet-5 네트워크
AlexNet 네트워크 및 VGGNet 네트워크
활성화 기능
ReLU 활성화 함수는 tanh 활성화 함수보다 6배 빠르게 학습합니다.
알렉스넷 구조
VGGNet 구조
더 깊은 레이어, 더 작은 컨볼루션 커널, 하나의 풀링 레이어에 해당하는 여러 컨볼루션 레이어를 사용합니다.
훈련 효과 향상을 위한 아이디어
CNN의 깊이를 높여 더 나은 훈련 결과 얻기
레이어 수를 직접적으로 늘리면 부정적인 영향을 미칩니다.
오버핏되기 쉬움
그라데이션이 사라집니다
그라데이션 폭발
GoogLeNet네트워크
매크로 구성 모듈 Inception
4개의 병렬 가지
모듈을 분기하고 병합하여 출력 생성
각 분기에는 1×1 컨볼루션이 포함되어 있습니다.
목적은 매개변수와 계산 복잡성을 줄이기 위해 분할하고 정복하는 것입니다.
구조
잔여 네트워크와 밀집 네트워크
잔여 네트워크
네트워크 성능 저하 문제
훈련 세트의 정확도는 포화 상태이거나 심지어 떨어집니다.
잔여 네트워크 특성
최적화가 쉽고 상당한 깊이를 추가하여 정확도를 향상시킬 수 있습니다.
Residual Network 내부의 Residual 블록은 Skip Connection을 사용하여 심층 신경망의 깊이 증가로 인해 발생하는 Vanishing Gradient 문제를 완화합니다.
잔여 빌딩 블록
잔여 그리드 구조
조밀한 네트워크
밀집된 네트워크 특성
입력 계층 또는 현재 계층의 출력을 각 후속 계층의 입력에 연결하여 피드포워드 네트워크의 구조를 유지합니다.
L 계층 네트워크의 경우 L(L-1)/2 연결이 있을 수 있습니다.
조밀한 네트워크 구조