마인드 맵 갤러리 완전히 연결된 신경망
완전 연결된 신경망의 상세한 분류 소개 완전 연결된 신경망은 입력-출력 매핑을 달성하기 위해 여러 변환을 계단식으로 진행하며 입력 레이어, 출력 레이어 및 여러 숨겨진 레이어로 구성됩니다.
2023-07-27 22:52:26에 편집됨이것은 (III) 저산소증-유도 인자 프롤릴 하이드 록 실라 제 억제제에 대한 마인드 맵이며, 주요 함량은 다음을 포함한다 : 저산소증-유도 인자 프롤릴 하이드 록 실라 제 억제제 (HIF-PHI)는 신장 빈혈의 치료를위한 새로운 소형 분자 경구 약물이다. 1. HIF-PHI 복용량 선택 및 조정. Rosalasstat의 초기 용량, 2. HIF-PHI 사용 중 모니터링, 3. 부작용 및 예방 조치.
이것은 Kuka Industrial Robots의 개발 및 Kuka Industrial Robot의 모션 제어 지침에 대한 마인드 맵입니다. 주요 내용에는 쿠카 산업 로봇의 역사, 쿠카 산업 로봇의 특성, 쿠카 산업 로봇의 응용 분야, 2. 포장 프로세스에서 쿠카 로봇은 빠르고 일관된 포장 작업을 달성하고 포장 효율성을 높이며 인건비를 줄입니다. 2. 인건비 감소 : 자동화는 운영자에 대한 의존성을 줄입니다. 3. 조립 품질 향상 : 정확한 제어는 인간 오류를 줄입니다.
408 컴퓨터 네트워크가 너무 어렵습니까? 두려워하지 마세요! 나는 피를 구토하고 지식 맥락을 명확히하는 데 도움이되는 매우 실용적인 마인드 맵을 분류했습니다. 컨텐츠는 매우 완전합니다. 네트워크 아키텍처에서 응용 프로그램 계층, TCP/IP 프로토콜, 서브넷 디비전 및 기타 핵심 포인트에 이르기까지 원칙을 철저히 이해하는 데 도움이 될 수 있습니다. 📈 명확한 논리 : Mindmas 보물, 당신은 드문 기회가 있습니다. 서둘러! 이 마인드 맵을 사용하여 408 컴퓨터 네트워크의 학습 경로에서 바람과 파도를 타고 성공적으로 해변을 얻으십시오! 도움이 필요한 친구들과 공유해야합니다!
이것은 (III) 저산소증-유도 인자 프롤릴 하이드 록 실라 제 억제제에 대한 마인드 맵이며, 주요 함량은 다음을 포함한다 : 저산소증-유도 인자 프롤릴 하이드 록 실라 제 억제제 (HIF-PHI)는 신장 빈혈의 치료를위한 새로운 소형 분자 경구 약물이다. 1. HIF-PHI 복용량 선택 및 조정. Rosalasstat의 초기 용량, 2. HIF-PHI 사용 중 모니터링, 3. 부작용 및 예방 조치.
이것은 Kuka Industrial Robots의 개발 및 Kuka Industrial Robot의 모션 제어 지침에 대한 마인드 맵입니다. 주요 내용에는 쿠카 산업 로봇의 역사, 쿠카 산업 로봇의 특성, 쿠카 산업 로봇의 응용 분야, 2. 포장 프로세스에서 쿠카 로봇은 빠르고 일관된 포장 작업을 달성하고 포장 효율성을 높이며 인건비를 줄입니다. 2. 인건비 감소 : 자동화는 운영자에 대한 의존성을 줄입니다. 3. 조립 품질 향상 : 정확한 제어는 인간 오류를 줄입니다.
408 컴퓨터 네트워크가 너무 어렵습니까? 두려워하지 마세요! 나는 피를 구토하고 지식 맥락을 명확히하는 데 도움이되는 매우 실용적인 마인드 맵을 분류했습니다. 컨텐츠는 매우 완전합니다. 네트워크 아키텍처에서 응용 프로그램 계층, TCP/IP 프로토콜, 서브넷 디비전 및 기타 핵심 포인트에 이르기까지 원칙을 철저히 이해하는 데 도움이 될 수 있습니다. 📈 명확한 논리 : Mindmas 보물, 당신은 드문 기회가 있습니다. 서둘러! 이 마인드 맵을 사용하여 408 컴퓨터 네트워크의 학습 경로에서 바람과 파도를 타고 성공적으로 해변을 얻으십시오! 도움이 필요한 친구들과 공유해야합니다!
완전히 연결된 신경망
정의
완전히 연결된 신경망은 여러 변환을 계단식으로 진행하여 입력-출력 매핑을 달성합니다.
2계층으로 완전히 연결된 네트워크
비교됨
선형 분류기
W는 하나의 템플릿으로 간주할 수 있으며, 카테고리의 개수에 따라 템플릿의 개수가 결정됩니다.
완전히 연결됨
W1은 템플릿으로 간주될 수도 있습니다.
W2는 여러 템플릿의 일치 결과를 결합하여 최종 카테고리 점수를 얻습니다.
비선형
구성
입력 레이어, 출력 레이어 및 여러 숨겨진 레이어
활성화 기능
일반적으로 사용되는 활성화 함수
시그모이드
ReLU
탄
누출된 ReLU
네트워크 구조 설계
뉴런 수가 많을수록 인터페이스가 더 복잡해지고 이 세트에 대한 분류 능력이 더 강해집니다.
분류 작업의 난이도에 따라 신경망 모델의 복잡도가 조정됩니다. 작업이 어려울수록 신경망 구조를 더 깊고 넓게 설계해야 하지만 과적합 현상에 주의해야 합니다.
SOFTMAX 및 교차 엔트로피 손실
소프트맥스
출력 결과 정규화
출력 결과를 확률로 변환
엔트로피 손실
실제값과의 차이를 측정하는데 사용(원-핫코드) - KL Divergence
최적화
계산 그래프
단계
모든 복잡한 함수는 계산 그래프의 형태로 표현될 수 있습니다.
계산 그래프 전체에서 각 게이트 장치는 일부 입력을 받은 다음 계산을 수행합니다.
이 게이트의 출력 값
입력 값에 대한 출력 값의 로컬 그래디언트
체인 규칙을 사용하여 게이트 유닛은 반환된 그래디언트에 입력의 로컬 그래디언트를 곱하여 게이트 유닛의 각 입력 값에 대한 전체 네트워크 출력의 그래디언트를 얻어야 합니다.
공용 도어 유닛
추가 게이트
곱셈 게이트
복사 게이트
최대 문
질문
그라데이션이 사라집니다
연쇄법칙의 곱셈적 성질로 인해
그라데이션 폭발
연쇄법칙의 곱셈적 성질로 인해
해결책
적절한 활성화 기능을 사용하십시오
모멘텀법
진동 방향의 단계 크기를 줄입니다.
이점
고차원 안장점을 탈피하라
로컬 최적점 및 안장점에서 벗어나기
적응형 그래디언트 방법
진동 방향의 스텝 크기를 줄이고 평면 방향의 스텝 크기를 늘립니다.
경사 진폭의 제곱은 진동 방향입니다.
경사 진폭의 제곱은 평평한 방향입니다.
RMSProp 메서드
아담
모멘텀 방식과 적응형 경사 방식을 결합한 방식이지만 콜드 스타트 시 너무 느려지지 않도록 보정이 필요합니다.
요약하다
모멘텀 방법 SGD가 가장 좋지만 수동 조정이 필요합니다.
ADAM은 사용하기 쉽지만 최적화하기는 어렵습니다.
가중치 초기화
모두 0으로 초기화
너무 좋지 않아
무작위 초기화
가우스 분포 사용
그라데이션이 사라지고 정보의 흐름이 사라질 확률이 높습니다.
자비에르 초기화
각 계층의 뉴런 활성화 값의 분산은 기본적으로 동일합니다.
요약
좋은 초기화 방법은 순방향 전파 중에 정보가 사라지는 것을 방지할 수 있으며 역방향 전파 중에 기울기가 사라지는 문제도 해결할 수 있습니다.
활성화 함수로 Hyperbolic Tangent 또는 Sigmoid를 선택할 경우 Xaizer 초기화 방법을 사용하는 것이 좋습니다.
활성화 함수로 ReLU 또는 Leakly ReLU를 선택할 경우 He 초기화 방법을 사용하는 것이 좋습니다.
배치 정규화
BN층이라 불림
방법
입력과 출력이 동일한 분포를 갖도록 가중치 분포를 조정합니다.
배치 훈련 후 y 출력 조정 - 평균을 빼서 분산 제거
그 중 데이터 분포의 평균과 분산은 분류에 대한 기여도에 따라 독립적으로 결정되어야 합니다.
혜택
순방향 패스 중 신호 소멸 및 그래디언트 소멸 문제 해결
과적합과 과소적합
과적합
훈련 세트에서 모델 능력이 감소하고 검증 세트에서 증가하기 시작하면 과적합이 시작됩니다.
학습 시 선택한 모델에 너무 많은 매개변수가 포함되어 있어 알려진 데이터에 대해서는 좋은 예측을 제공하지만 알 수 없는 데이터에 대해서는 예측이 좋지 않습니다.
일반적으로 학습된 데이터 특징보다는 훈련 데이터가 기억됩니다.
해결책
더 많은 훈련 데이터 얻기
정보를 허용하거나 제한하기 위해 모델을 규제합니다. - 정규화
모델 크기 조정
모델 가중치 제한, 가중치 정규화
무작위 비활성화(드롭아웃)
일정 확률로 은닉층 뉴런이 활성화되지 않게 해주세요
성취하다
훈련 과정에서 특정 계층에서 드롭아웃을 사용한다는 것은 해당 계층의 일부 출력을 무작위로 버리는 것을 의미합니다. 버려진 뉴런은 네트워크에 의해 삭제되는 것 같습니다.
무작위 손실률
0으로 설정된 기능의 비율이며 일반적으로 0.2-0.5 범위입니다.
여러 소규모 네트워크의 통합 모델로 간주될 수 있음
과소적합
데이터의 패턴을 잘 학습하기에는 모델 설명 능력이 너무 약합니다.
일반적으로 모델이 너무 단순합니다.
초매개변수 조정
학습률
너무 크다
수렴할 수 없음
너무 큰
최소값 근처에서 진동하며 최적값에 도달할 수 없습니다.
너무 작은
긴 수렴 시간
보통의
빠른 수렴과 좋은 결과
최적화
그리드 검색 방법
각 하이퍼파라미터는 여러 값을 가지며, 이러한 하이퍼파라미터는 결합되어 여러 하이퍼파라미터 세트를 형성합니다.
검증기의 각 하이퍼파라미터 세트에 대한 모델 성능을 평가합니다.
가장 성능이 좋은 모델이 사용하는 값 세트를 최종 하이퍼파라미터 값으로 선택합니다.
무작위 검색 방법
매개변수 공간에서 무작위로 점을 선택합니다. 각 점은 하이퍼파라미터 세트에 해당합니다.
검증 세트의 각 하이퍼파라미터 세트에 대한 모델 성능을 평가합니다.
가장 좋은 성능을 보이는 모델이 사용하는 값들의 집합을 최종 하이퍼파라미터 값으로 선택합니다.
일반적으로 무작위 샘플링은 로그 공간에서 수행됩니다.