마인드 맵 갤러리 인공지능 기초
인공지능의 기본은 딥러닝을 수반하지 않는 비교적 전통적인 방법입니다. 딥러닝에 대해서는 저의 또 다른 마인드맵을 보실 수 있습니다. 이 글은 인공지능, 결정론적 지식 시스템, 불확실성 추론, 지능형 검색 기술 등에 대한 개요를 요약하고 있습니다.
2024-02-04 00:47:36에 편집됨이것은 (III) 저산소증-유도 인자 프롤릴 하이드 록 실라 제 억제제에 대한 마인드 맵이며, 주요 함량은 다음을 포함한다 : 저산소증-유도 인자 프롤릴 하이드 록 실라 제 억제제 (HIF-PHI)는 신장 빈혈의 치료를위한 새로운 소형 분자 경구 약물이다. 1. HIF-PHI 복용량 선택 및 조정. Rosalasstat의 초기 용량, 2. HIF-PHI 사용 중 모니터링, 3. 부작용 및 예방 조치.
이것은 Kuka Industrial Robots의 개발 및 Kuka Industrial Robot의 모션 제어 지침에 대한 마인드 맵입니다. 주요 내용에는 쿠카 산업 로봇의 역사, 쿠카 산업 로봇의 특성, 쿠카 산업 로봇의 응용 분야, 2. 포장 프로세스에서 쿠카 로봇은 빠르고 일관된 포장 작업을 달성하고 포장 효율성을 높이며 인건비를 줄입니다. 2. 인건비 감소 : 자동화는 운영자에 대한 의존성을 줄입니다. 3. 조립 품질 향상 : 정확한 제어는 인간 오류를 줄입니다.
408 컴퓨터 네트워크가 너무 어렵습니까? 두려워하지 마세요! 나는 피를 구토하고 지식 맥락을 명확히하는 데 도움이되는 매우 실용적인 마인드 맵을 분류했습니다. 컨텐츠는 매우 완전합니다. 네트워크 아키텍처에서 응용 프로그램 계층, TCP/IP 프로토콜, 서브넷 디비전 및 기타 핵심 포인트에 이르기까지 원칙을 철저히 이해하는 데 도움이 될 수 있습니다. 📈 명확한 논리 : Mindmas 보물, 당신은 드문 기회가 있습니다. 서둘러! 이 마인드 맵을 사용하여 408 컴퓨터 네트워크의 학습 경로에서 바람과 파도를 타고 성공적으로 해변을 얻으십시오! 도움이 필요한 친구들과 공유해야합니다!
이것은 (III) 저산소증-유도 인자 프롤릴 하이드 록 실라 제 억제제에 대한 마인드 맵이며, 주요 함량은 다음을 포함한다 : 저산소증-유도 인자 프롤릴 하이드 록 실라 제 억제제 (HIF-PHI)는 신장 빈혈의 치료를위한 새로운 소형 분자 경구 약물이다. 1. HIF-PHI 복용량 선택 및 조정. Rosalasstat의 초기 용량, 2. HIF-PHI 사용 중 모니터링, 3. 부작용 및 예방 조치.
이것은 Kuka Industrial Robots의 개발 및 Kuka Industrial Robot의 모션 제어 지침에 대한 마인드 맵입니다. 주요 내용에는 쿠카 산업 로봇의 역사, 쿠카 산업 로봇의 특성, 쿠카 산업 로봇의 응용 분야, 2. 포장 프로세스에서 쿠카 로봇은 빠르고 일관된 포장 작업을 달성하고 포장 효율성을 높이며 인건비를 줄입니다. 2. 인건비 감소 : 자동화는 운영자에 대한 의존성을 줄입니다. 3. 조립 품질 향상 : 정확한 제어는 인간 오류를 줄입니다.
408 컴퓨터 네트워크가 너무 어렵습니까? 두려워하지 마세요! 나는 피를 구토하고 지식 맥락을 명확히하는 데 도움이되는 매우 실용적인 마인드 맵을 분류했습니다. 컨텐츠는 매우 완전합니다. 네트워크 아키텍처에서 응용 프로그램 계층, TCP/IP 프로토콜, 서브넷 디비전 및 기타 핵심 포인트에 이르기까지 원칙을 철저히 이해하는 데 도움이 될 수 있습니다. 📈 명확한 논리 : Mindmas 보물, 당신은 드문 기회가 있습니다. 서둘러! 이 마인드 맵을 사용하여 408 컴퓨터 네트워크의 학습 경로에서 바람과 파도를 타고 성공적으로 해변을 얻으십시오! 도움이 필요한 친구들과 공유해야합니다!
인공지능 기초
인공지능 개요
AI 기본 개념
스마트 컨셉
자연 지능
정의
인간과 일부 동물의 힘과 행동 능력을 나타냅니다.
타고난 인간 지능
사고과정과 정신활동을 통해 나타나는 객관적 세계를 이해하는 인간의 종합적인 능력이다.
지능에 대한 다양한 관점과 계층
보다
마음의 이론
지능은 사고활동에서 나온다
지식 임계값 이론
지능은 적용 가능한 지식에 달려 있다
진화론
지능은 점진적인 진화를 통해 달성될 수 있다
계층
지능에 포함된 특징적인 능력
지각
기억력과 사고력
학습과 적응력
용량
인공 지능 개념
설명하다
인공적인 방법을 사용하여 기계 지능 달성
지능형 기계나 시스템을 구축하는 방법과 인공지능을 시뮬레이션 및 확장하는 방법을 연구합니다.
튜링 테스트
인공지능 연구 목표
AI의 등장과 발전
임신 기간
형성기
지식응용기간
분리부터 통합까지
머신러닝과 딥러닝이 선두를 달리고 있습니다.
AI 연구의 기본 내용
인공지능의 주체 위치
자연과학과 사회과학의 교차점
핵심: 사고와 지능
기초과목 : 수학, 사고과학, 컴퓨터
뇌과학과 인지과학의 학제간 연구
지능형 시뮬레이션 방법 및 기술 연구
기계 인식
비전
듣기
기계적인 사고
기계 학습
기계 동작
다양한 AI 연구 학교
상징주의
수학적 논리
지식 공학
연결주의
생체공학
인공 신경망
행동주의
사이버네틱스
결정론적 지식 시스템
결정론적 지식 시스템의 개요
지식 표현
지식 정의
지식의 종류
필요하다
표현력
정확하고 효과적인 표현
유효성
효과적인 추론에 도움이 됨
조직성 및 유지 관리성
어떤 방식으로든 지식 구조로 조직화될 수 있음
이해 가능성과 달성 가능성
읽기 쉽고, 이해하기 쉽고, 얻기 쉽고, 구현하기 쉽습니다.
표시 방법
유형
선언적 지식
지식 자체와 활용 과정은 서로 분리되어 있다
과도기적 지식
지식 자체와 사용 과정이 결합됩니다.
기본 방법
구조화되지 않은 접근 방식
술어 논리
생산
구조화된 접근 방식
의미론적 네트워크
액자
지식 추론
정의
구조
다양한 판단을 분석하고 종합하여 새로운 판단을 내립니다.
프로세스
지식 처리
정신 과정의 주요 형태
삼단 논법
선형(선형 삼단논법)
상태
개연성
추론 방법
추론 논리
해석
삼단 논법
유도
가정 및 증명
지식의 확실성
확신하는
불확실한
기계 구현
추론 엔진(추론을 구현하는 프로그램)
추론 제어 전략
분류
추론 전략
검색 전략
결정론적 지식 표현 방법
술어 논리 표기법
논리의 기초
제안
참 또는 거짓 의미를 지닌 선언문(단언)
진리값(명제의 의미)
T/F
담론의 영역
문제의 모든 객체로 구성된 집합도 개별 영역이 됩니다.
술부
P(x1,x2,...,xn)과 같은 술어 논리에서 명제를 나타내는 데 사용됩니다. P:D^n->{T,F}. 여기서 D^n={(x1,x2,...,xn)|x1,x2,xn∈D)
D에서 {T, F}로의 매핑입니다. 실제 값은 T 또는 F이며 독립적으로 존재할 수 있습니다.
기능
f:D^n->D. 여기서 D^n={(x1,x2,...,xn)|x1,x2,xn∈D)
D 대 D 매핑, 함수의 값은 술어의 개별적으로만 존재할 수 있는 D의 요소입니다.
접속사
┐, ∧, ∨, →, ∨
수량자
∀, ∃
수량자의 범위
수량자 뒤의 단일 술어 또는 공식을 나타냅니다.
제약 변수
정의역의 수량자와 이름이 같은 변수
자유변수
제약이 없는 변수
술어 논리 표현의 전형적인 예
조건 부분
액션 부분
테이블 삭제
테이블 추가
특징
이점
자연스럽고 명확하며 정확하고 유연하며 엄격하며 모듈식이며 구현이 용이합니다.
결점
지식 표현 능력이 부족함
결정론적 지식만을 나타낼 수 있다
지식 기반 관리의 어려움
정리 원리에 대한 지식 부족
조합이 너무 많아
맹목적으로 추론할 수 있을 뿐이다
시스템 효율성이 낮다
추론 계산과 지식 의미의 분리
생산 표기
기본 방법
사실
개념
사실은 언어 변수의 값이나 여러 언어 변수 간의 관계를 주장하는 진술입니다.
표시 방법
(객체, 속성, 값)
(관계, 대상 1, 대상 2)
규칙
형태
P->Q
A와 B이면 C
특성
이점
자연스럽고, 모듈식이며, 효과적입니다.
효율성이 낮고 구조적 지식을 표현하기 불편함
의미론적 네트워크 표현
정의
유향 그래프로 지식을 표현하기 위한 엔터티 및 의미 관계
구성
마디
호
의미 단위
(노드 1, 호, 노드 2)
기본 네트워크 요소
기본 의미 관계
인스턴스 관계: ISA
의미: 이다
구현: 구체적이고 추상적인 것
분류관계(일반화관계) : AKO
의미:
구현: 서브클래스 및 슈퍼클래스
회원: A-회원-of
의미: 회원이 되다
구현: 개인 및 집단
속성 관계: 있음
의미: 예
구현: 속성을 가짐
속성 관계: 가능
의미: 할 수 있다
표현: 뭔가를 할 수 있다는 것
포함관계(클러스터링 관계) : Part-of
의미: ~의 일부
구현: 부분과 전체
참고: 속성은 상속되지 않습니다.
시간관계: 전/후
의미: 이전/이후
위치 관계: Locat-on/Locat-under/Locat-at
의미: 위/아래/위에…
유사 관계: 유사/근접
의미: 비슷하다/가깝다
추리
상속하다
인스턴스에 추상화 전달
노드 테이블을 생성하고 ISA, AKO, A-Member-of를 찾습니다.
성냥
일치하는 항목 찾기
조각 구성
특성
이점
구조적, 연관적, 자연적
결점
엄격하지 않음
복잡성
프레임 표기
프레임 이론
액자
사람들이 프레임워크에 새로운 것을 추가하는 한 특정 엔터티를 형성할 수 있습니다.
인스턴스 프레임
프레임워크의 경우 사람들이 세부 사항을 입력한 후 구체적인 예를 얻습니다.
프레임 시스템
프레임 이론에서 프레임은 지식의 기본 단위이다.
프레임 구조 및 프레임 표현
프레임<프레임 이름>
슬롯 이름 1: 측면 이름 1 값 1, 값 2,...
프레임 시스템
초상화
AKO와 ISA
수평의
프레임 표현의 특징
이점
구조적, 심층적, 유전적, 자연적, 원인과 결과를 표현할 수 있음
결점
프레임워크의 형식적 이론 부족, 프로세스 지식 부족, 명확성 확보 어려움
결정론적 지식 추론 방법
생산 추론
기본 구조
포괄적인 데이터베이스
추론 과정을 위한 다양한 정보를 저장
문제의 초기 상태
입력 사실
중간 및 최종 결론
추론 과정 선택의 기초로서
규칙 베이스(지식 베이스)
효과
추론에 필요한 모든 규칙을 저장합니다.
생산 시스템이 추론할 수 있는 기반이 됩니다.
필요하다
완전함, 일관됨, 정확함, 유연함, 구성 가능
제어 시스템(추론 엔진)
효과
제어 시스템 작동
일
경기 선택
특정 전략에 따라 규칙 베이스에서 규칙을 선택하고 이를 종합 데이터베이스의 알려진 사실과 일치시킵니다.
갈등 해결
성공적으로 일치하는 규칙에 대해서는 특정 전략에 따라 실행합니다.
작업을 수행하다
도출된 결론을 종합 데이터베이스에 추가하고 다른 작업이 있으면 계속 실행합니다.
해고 이유
합성 데이터베이스에 대상이 포함되어 있는지 확인하고 포함된 경우 추론을 중지합니다.
루진이 설명한다
적용된 규칙의 순서를 기억하고 문제에 대한 설명 경로를 제공합니다.
추론 방법
앞으로 추론
역추론
하이브리드 추론
자연스러운 연역적 추론
논리적 근거
등가
용진 스타일
바꾸다
단일성
방법
세게 밀어
귀납적 연역적 추론
귀납적 추론과 연역적 추론의 논리적 기초
진실과 거짓
영원한 진정성
누구라도 만족해요
만족도(호환성)
값이 참인 개인이 적어도 한 명 이상 있습니다.
영구적인 허위(비호환성)
만족스럽지 않음
어형 변화표
토인 패러다임
모든 수량자는 수식 앞에 음수가 아닌 값으로 나타나며 전체 수식을 지배합니다.
스콜렘 패러다임
프론트 번들 패러다임에 따르면 모든 존재 수량자는 보편적 수량자 앞에 있습니다.
조항 세트 및 단순화
절
단어
원자 술어 공식과 그 부정
절
어떤 리터럴의 분리는 절이 됩니다
빈 절
텍스트가 없는 조항
영구 휴가
□ 또는 NIL로 기억하세요
조항 세트
술어 논리에서 모든 술어 수식은 동등 관계 및 추론 규칙을 적용하여 해당 절 세트로 바뀔 수 있습니다.
조항 세트 단순화
술어 수식에서 "→" 및 "VT"를 제거합니다.
P→Q는 ┐P∨Q로 쓸 수 있습니다.
P←Q는 (P∧Q)∨(┐P∧┐Q)로 쓸 수 있습니다.
하나의 술어에만 적용되도록 부정 기호의 범위를 줄입니다.
┐(┐P)는 P로 쓸 수 있습니다.
┐(P∧Q)는 (┐P)∨(┐Q)로 쓸 수 있습니다.
┐(P∨Q)는 (┐P)∧(┐Q)로 쓸 수 있습니다.
┐(∀x)P(x)는 (∃x)┐(P(x))로 쓸 수 있습니다.
┐(∃x)P(x)는 (∀x)┐(P(x))로 쓸 수 있습니다.
변수 표준화
다른 수량자에 의해 제한되는 변수가 다른 이름을 갖도록 수량자의 이름을 바꿉니다.
토인 패러다임
이동할 때 상대 순서가 변경되지 않도록 주의하면서 모든 수량자를 수식 왼쪽으로 이동합니다.
존재 수량자 제거
범용한정사 범위에 나타나지 않는 수량사가 있는 경우(즉, 왼쪽에 전역한정사가 없는 경우)
제약 조건의 변수를 새로운 개별 상수로 대체
예를 들어, (∃x)P(x)는 P(y)로 쓸 수 있습니다.
범용 수량자 범위에 수량자가 있는 경우(즉, 왼쪽에 전역 수량자가 없는 경우)
y 인수를 Skolem 함수로 바꿉니다.
y가 x의 범위 내에 있으면 y는 f(x)로 쓸 수 있습니다.
Skolem 표준 형식으로
∨가 하나의 술어에만 작용하도록 ∨의 관할권을 줄입니다.
P∨(Q∧R)은 (P∨Q)∧P(P∨R)로 쓸 수 있습니다.
범용 수량자 제거
모든 변수는 범용 수량자에 의해 제한되며 전역 수량자는 순서와 관련이 없기 때문입니다.
직접 생략 가능
접속사를 제거하세요 ∧
술어 공식을 절 세트로 변환
변수 이름 변경
두 절에 동일한 인수 이름이 나타나지 않습니다.
특성
Skolemization으로 인해 고유하지는 않지만 만족도에는 영향을 미치지 않습니다.
술어식 F를 만족할 수 없는 필요충분조건은 일련의 절을 만족할 수 없다는 것이다.
로빈슨의 환원 원리
기본 아이디어
절 사이에는 접속 ∧ 관계가 있습니다. 따라서 한 조항이 충족되지 않는 한 전체 조항이 충족되지 않습니다.
조항 세트에 빈 조항이 포함된 경우 조항 세트는 다음을 충족할 수 없습니다.
먼저, 증명하려는 질문을 부정하고 이를 조항 집합에 추가합니다. 조항 세트에 빈 조항이 있는지 확인하십시오. 빈 절이 있으면 질문의 부정이 거짓임을 의미하고, 그렇지 않으면 축소가 계속됩니다. 사실이라면 어떻게 요약해도 사실이다.
명제 논리
환원적 추론
보완적인 텍스트
P가 원자 술어 공식이면 P와 ┐P는 상보적입니다.
내려와
C1C2는 절입니다(접합 ∨만). C1에는 L1이 있고 C2에는 L2가 있습니다. L1과 L2가 상보적이면 L1L2가 제거됩니다. 나머지 부분에서 분리 ∨를 눌러 새로운 절 C12를 얻습니다. C1과 C2는 C12의 상위 조항입니다.
특성
결과는 동일하지만 프로세스는 고유하지 않습니다.
결론적으로
C12는 C1과 C2의 논리적 결론입니다.
C1과 C2가 참이면 C12도 참이어야 합니다.
C12가 C1과 C2를 대체한 후 새 절 세트 S1의 불만족은 S의 불만족에서 파생될 수 있습니다.
C12가 C1과 C2를 결합한 후 새 절 집합 S1의 불만족은 S의 불만족을 상호 추론할 수 있습니다.
술어 논리
논리로 귀결
공용변수가 없는 경우 통합작업을 수행하여 {a/y}로 기록됩니다.
공용 변수가 있는 경우 먼저 교체한 후 하나로 결합합니다.
두 쌍을 동시에 제거할 수 없습니다.
맴돌거나 해결방법이 없다면 과정에 문제가 있는지 확인해 보세요.
내부적으로 통일할 수 있는 변수가 있다면 먼저 내부적으로 통일해야 합니다.
연역적 추론 방법
원칙
로빈슨 축소 원리에 기반한 기계 추론 방법
프로세스
부정적인 목표 공식
목표를 공식 세트에 넣으세요
수식 세트를 조항 세트로 변환
일련의 조항을 요약합니다.
결정론적 지식 시스템의 간단한 예
불확실성 추론
불확실성 추론의 기본 개념
불확실성 추론의 의미
불확실한 초기 증거에서 시작하여 불확실하지만 합리적인 또는 기본적으로 합리적인 결론을 도출하기 위해 불확실한 지식을 사용합니다.
불확실성 추론의 적용 범위
불완전하고 부정확한 지식
모호한 설명
여러 가지 이유가 같은 결론을 낳는다
결과는 고유하지 않습니다.
불확실성 추론의 기본 문제
지식의 불확실성 표현
고려사항
문제 설명 능력, 추론의 불확실성 계산
의미
지식의 확실성 정도 또는 정적 강도
표시 방법
확률[0,1]
신뢰성[-1,1]
증거의 불확실성 표현
증거의 종류
증거 조직
기본적인 증거
증거 결합
분리 또는 결합. 기본적인 증거를 바탕으로 최대-최소 방법, 확률론적 방법, 제한적 방법 등이 있습니다.
증거의 출처
초기, 중간
표시 방법
확률, 신뢰성, 퍼지 세트
불확실한 일치
의미
불확실한 전제조건이 불확실한 사실과 일치함
계산방법
유사도를 계산하는 알고리즘을 설계하고 유사도의 한계를 부여하여 한계 내에 속하는지 확인합니다.
불확실한 업데이트
결론의 불확실성을 업데이트하기 위해 증거의 불확실성을 사용하는 방법
다른 방법으로 다르게 처리합니다.
중간 결론의 불확실성이 최종 계시에 전달된다면
현재 결론과 그 불확실성을 새로운 결론으로 데이터베이스에 넣고 통과시킵니다.
불확실한 결론의 종합
여러 가지 서로 다른 지식이 동일한 결론을 도출하지만 신뢰성은 다릅니다.
불확실성 추론의 유형
수치적 방법
확률에 기초하여
신뢰성 접근법
주관적 베이즈
증거 이론
확률적 추론
퍼지 추론
비수치적 방법
신뢰성 추론
신뢰성의 개념
신뢰성은 사람들이 어떤 사물이나 현상이 사실이라고 믿는 정도이며 어느 정도 주관성을 가지고 있습니다.
신뢰성 추론 모델
규칙 표현
만약 E이면 H(CF(H,E))
정의
E는 전제, H는 결론, CF는 신뢰성을 의미합니다.
CF(H,E)
값 범위는 [-1,1]입니다.
CF(H,E)=MB(H,E)-MD(H,E)
정의
MB는 신뢰성장이다
MD는 불신의 증가율
결론적으로
상호 배타적이며 둘 중 하나는 0이어야 합니다.
값 범위는 [-1,1]입니다.
앞뒤로 밀 수 있음
MB(H)=MD(┐H)
MB(H)MB(┐H)=0
신뢰성은 확률이 아니며 P(H) P(┐H)=1을 만족하지 않습니다.
계산하다
결론에서 단일 증거의 신뢰도를 계산합니다.
수식 업데이트
CF(H)=CF(H,E)*최대(0,CF(E))
H에 대한 CF의 거짓 영향을 고려하지 마십시오.
증거 결합
결합 및: 최소값을 취함
분리 또는: 최대값을 취함
결론에서 단일 증거의 신뢰도를 계산합니다.
합성식
나눗셈을 완료할 수 없는 경우에는 소수점 둘째 자리에서 반올림합니다.
애플리케이션
혈액진단 전문가 시스템 MYCIN
주관적 베이지안 추론
확률이론의 기초
총 확률 공식, 베이지안 확률
추론 모델
주요 방법
H의 사후 확률 업데이트
규칙 표현
IF E THEN (LS,LN) H
정의
(LS,LN)
지식의 강도를 나타내는 데 사용됩니다.
엘에스
충분성 척도
LN
필요성 대책
황소)
확률 함수
P(x)=0←O(x)=0
P(x)=1⇔O(x)=무한대
O(X)=P(X)/(1-P(X))
P(X)=O(X)/(1O(X))
결론적으로
O(H|E)=LS*O(H)
O(H|┐E)=LN*O(H)
자연
엘에스
LS>1
E는 H를 지원합니다. LS가 클수록 E는 H를 더 완벽하게 지원합니다.
LS가 무한대에 가까워지면 P(H|E)는 1에 가까워집니다. 이는 E가 H를 참으로 만든다는 의미입니다.
LS=1
E는 H에 영향을 미치지 않습니다.
LS<1
E는 H를 지원하지 않습니다. LS가 작을수록 E가 H를 더 완벽하게 지원하지 않습니다.
LS=0일 때, P(H|E)=0, 이는 E가 H를 거짓으로 만들 것임을 의미합니다.
LN
LS의 E를 ┐E로 바꿉니다.
계산하다
결론에서 단일 증거의 신뢰도를 계산합니다.
수식 업데이트
E가 확실히 참일 때
E가 확실히 거짓일 때
E가 S와 아무 관련이 없을 때
기타 사례
증거 결합
P(E|S)를 보세요
결합 및: 최소값을 취하고 더 큰 증거를 직접 폐기합니다.
분리형 또는: 최대값을 취하고 더 작은 증거를 직접 폐기합니다.
결론에 대한 여러 증거의 신뢰도를 계산합니다.
계산 중간에 구성이 합성되어 나중에 상속될 수 있습니다.
애플리케이션
지질 및 광물 탐사 전문가 시스템 PROSPECTOR
퍼지 추론
퍼지 세트
개념
μF는 소속 함수이고 F는 U의 퍼지 집합입니다.
μ(u)가 클수록 소속도가 높은 것을 의미합니다.
퍼지 집합과 해당 구성원 함수는 동일하지 않습니다.
표현하다
이산형
알아채다
/는 구분 기호가 아닌 구분 기호입니다.
더하기 기호가 아니라 커넥터입니다.
회원등급이 0인 경우 생략 가능하지만 권장하지 않습니다.
예
F=1/20 0.8/30
마디 없는
예
일반적인 표현방법
알아채다
∫는 수학에서 적분 기호가 아닌 관계 기호입니다.
작업
F⊆G
U에 속하는 모든 u에 대해 μF(u)<=μF(u)가 있습니다.
F∪G
각 u에 대해 두 값 중 최대값을 취합니다.
F∩G
각 u에 대해 두 값 중 최소값을 취합니다.
하위 주제 2
┐F(보완)
각 u에 대해 1-μF(u)를 취합니다.
퍼지 개념 일치
의미론적 거리
정의
예
효과
적당
정의
1-d(F,G)
두 개념이 일치하는지 여부를 결정하기 위해 임계값이 제공될 수 있습니다.
근사
외부 곱은 생략된 요소를 멤버쉽 0으로 보완해야 합니다.
퍼지 관계
정의
데카르트 곱과 유사
퍼지 관계의 구축
정의
데카르트 곱과 유사하게 먼저 작은 값을 취하고 그다음에 큰 값을 취합니다.
예
U는 행, V는 열
퍼지 관계의 합성
정의
행렬 곱셈과 유사하게, 각 위치를 계산할 때 "작은 것을 먼저 취하고 큰 것을 취한다"
예
흐림 변환
연산과 퍼지 관계의 종합
퍼지 추론 방법
주어진 추론 모드에 따라 퍼지 집합과 퍼지 관계의 합성을 통해 구현된다.
퍼지 지식 표현
규칙
IF x가 F이면 y는 G입니다.
증거
x는 F`이다
퍼지 추론 방법
모호한 가설적 추론
정의
예
퍼지 저항 추론
정의
예
가설적인 삼단논법
정의
예
지능형 검색 기술
검색 개요
의미
찾다
지식을 활용해 최소 비용으로 추론 경로 구축
스마트 검색
검색 과정에서 얻은 중간 정보를 활용하여 최적의 방향으로 검색을 안내하는 알고리즘입니다.
유형
우주탐색을 기반으로
상태 공간
알고리즘
A* 알고리즘
및/또는 트리
문제 감소 방법
게임 트리
최대/최소 알고리즘
α-β 가지치기
무작위 알고리즘 기반
진화 메커니즘
유전자 알고리즘
면역 최적화
면역 알고리즘
인구 최적화
개미 식민지 알고리즘
세분화된 군집 알고리즘
통계 모델
모델 카를로 알고리즘
다른 방법
언덕등반 검색 알고리즘
시뮬레이션된 어닐링 알고리즘
상태공간 문제 해결 방법
상태공간 문제 표현
상태
문제 해결 과정의 각 단계의 문제 상태를 나타내는 데이터 구조로, 벡터로 표현 가능
작동하다
연산자라고도 하며 한 상태를 다른 상태로 변환하고 상태 간의 관계를 설명합니다.
상태 공간
문제의 모든 상태와 상태 간의 관계를 설명하는 데 사용되며 트리플(S, F, G)로 표시될 수 있습니다.
에스
초기 상태
에프
작업 세트
G
목표 상태
방향성 그래프로 표현 가능
노드는 상태를 나타냅니다.
모서리는 작업을 나타냅니다.
문제 해결 과정
적절한 상태와 조치를 선택하세요.
일부 초기 상태에서 시작하여 목표 상태에 도달할 때까지 한 번에 하나의 작업을 사용하여 일련의 작업을 구축합니다.
초기 상태부터 목표 상태까지 사용되는 연산자의 순서는 해입니다.
문제 사양 해결 방법
기본 아이디어
문제를 일련의 간단한 하위 문제로 분해하거나 동등하게 변환합니다.
시작 노드를 풀 수 있음을 나타내기 위해 AND-OR 그래프에서 검색을 수행하는 프로세스입니다. 즉, 탐색은 대상 노드에 대한 경로를 찾는 것이 아니라 솔루션 트리를 찾는 것입니다.
표시 방법
및/또는 트리
정의
끝 노드
하위 노드가 없는 노드
종료 노드
원래 문제
직접 답변할 수 있는 질문(재귀 종료)
원래 문제에 해당하는 노드
해결 가능한 노드
모든 터미널 노드는 해결 가능한 노드입니다.
'OR' 노드인 경우 해당 하위 노드 중 하나 이상이 해결 가능한 지점이면 해결 가능한 지점입니다.
'AND' 노드인 경우 모든 자식 노드가 해결 가능한 지점이면 해결 가능한 지점입니다.
솔루션 트리
해결 가능한 차용점으로 구성되며, 해결 가능한 노드로부터 초기 노드가 해결 가능한 차용점임을 추론할 수 있습니다. 이러한 하위 트리가 솔루션 트리입니다.
검색을 위한 맹목적인 전략
깊이와 폭
상태공간의 경험적 탐색
영감을 주는 정보
검색을 안내할 수 있는 정보
평가함수
노드 중요도 추정
f(n)=g(n) h(n)
g(n)
초기 노드 S0에서 노드 n까지의 실제 비용
h(n)
n에서 대상 노드 Sn까지의 최적 경로의 예상 비용
알고리즘
Open 테이블의 모든 노드에서 추정치가 가장 작은 확장을 선택합니다.
A* 알고리즘
알고리즘 A의 g(n) 및 h(n)에 대해 다음과 같은 제한을 적용합니다.
g(n)은 최소 비용 g*(n)의 추정치이며, g(n)>0입니다.
h(n)은 최소 비용 h*(n)의 하한입니다. 즉, h(n)<=h*(n)입니다.
트리를 이용한 경험적 검색
트리를 해결하는 데 드는 비용
n이 터미널 노드인 경우 비용 h(n)=0
n이 OR 노드인 경우
비용 h(n)=(자식 노드에 대한 노드 n의 비용 비용) 최소값
n이 AND 노드인 경우
및 고려방법
비용 h(n)=(노드 n에서 하위 노드까지의 하위 노드 비용)을 합산합니다.
최대 비용 방법
비용 h(n)=(자식 노드에 대한 노드 n의 비용 비용) 최대값
n이 끝 노드이지만 터미널 노드가 아닌 경우
비용 h(n)=무엇
희망나무
탐색과정에서 최적해 트리가 될 가능성이 가장 높은 트리
일반적으로 한 번에 두 개의 레이어가 확장됩니다.
게임 트리에 대한 경험적 검색
게임
특징
자신의 차례는 'OR', 상대의 차례는 'AND'
또는 노드로 대체
미니맥스 프로세스
부분 게임 트리 생성 및 리프 노드 평가
리프 노드
우리에게 이익이 될 때 긍정적인 가치를 취하고, 상대방에게 이익이 될 때 부정적인 가치를 취합니다.
리프가 아닌 노드
리프 노드에서 위쪽으로 밀어 넣습니다.
우리 노드의 경우 매번 가장 큰 가치를 지닌 노드를 선택하므로 우리 노드의 값은 후속 노드의 최대 값이 되어야 합니다.
상대 노드의 경우 매번 가장 작은 가치 평가를 받은 노드가 선택되므로 우리 노드의 값은 후속 노드의 최소값이 되어야 합니다.
α-β 가지치기
Edge는 노드를 생성하고 Edge는 노드를 평가합니다.
노드->α 값: 현재 자식 노드의 최대값
반대 노드->β값 : 현재 자식 노드의 최소값
기본값은 '나'입니다. 먼저 가세요.
가지치기 방법
알파 가지치기
상대 노드의 베타 값이 이전 노드의 알파 값보다 작거나 같으면 검색이 중지됩니다.
가지치기된 하위 트리의 루트 노드는 α 수준, 즉 α 가지치기에 있습니다.
β 가지치기
노드의 α 값이 이전 노드의 β 값보다 크거나 같으면 검색이 중지됩니다.
가지치기된 하위 트리의 루트 노드는 β 수준, 즉 β 가지치기에 있습니다.
유전자 알고리즘
정의
프로세스
코딩
유형
바이너리 인코딩
정의
원래 문제의 구조를 염색체의 비트열 구조로 변환
작동하다
먼저 변수의 영역 및 계산 정확도와 관련된 길이 l을 결정합니다.
결점
바이너리에서는 7과 8이 매우 비슷하지만 0111에서 1000까지는 큰 차이가 있습니다. (Hamming Cliff)
그레이 코드
정의
두 개의 연속 정수 인코딩이 하나의 코드 비트만 다를 수 있도록 요구하는 이진 인코딩이 개선되었습니다.
작동하다
실제 인코딩
특징
부동 소수점
적용 범위
고정밀, 다차원
문자 인코딩
피트니스 기능
일반적으로 사용되는 피트니스 기능
오리지널 피트니스 기능
이점
원래 목표를 직접적으로 반영
결점
음수가 발생할 수 있습니다.
표준 피트니스 기능
극히 작은
엄청난
가속화된 변혁
기본 조작
작업 선택
비율 선택
룰렛
적합도 값이 클수록 선정될 확률이 높아집니다.
번식지
선택 정렬
경쟁 옵션
토너먼트 선택
크로스오버 작업
정의
부분적인 유전자 재조합
유형
바이너리 크로스오버
단일 포인트 크로스오버
특정 지점 이전에는 변경이 없으며 특정 지점 이후에는 교체됩니다.
두 점이 교차함
전후가 변하지 않는 두 점 사이의 교환
다점 크로스오버
고르게 교차하다
실질적인 크로스오버
돌연변이 작업
유형
이진 돌연변이
0과 1사이의 변화
상당한 변화
생물학적 진화 과정에서 선택은 유전과 돌연변이를 통해 이루어지며, 동시에 돌연변이와 유전은 환경에 적응하는 방향으로 발달한다.
기계 학습
기계 학습 개요
학습 개념
학습에 대한 심리적 관점
뇌과학과 인지과학을 기반으로
분류
연결주의적 관점
학습의 본질은 연결의 형성이다
인식론적 관점
학습의 본질은 학습자 마음 속의 인지 구조의 변화이다
변화
행동
행동 잠재력
핵심
행동과 행동 잠재력의 변화로 표시됩니다.
경험으로 인한 행동 변화
행동 변화가 더 오래 지속됨
학습에 대한 인공지능의 관점
지식의 습득
핵심
능력 향상
결과
일반적인 설명
기계 학습 개념
머신러닝이란?
인간 학습의 기계 시뮬레이션
주요 연구 내용
인지 시뮬레이션
이론적 분석
과제 중심 연구
머신러닝 시스템
적절한 학습 환경을 갖출 것
특정 학습 능력을 가지고
학습된 지식을 활용하여 문제를 해결하는 능력
학습을 통해 자신의 성과를 향상시키세요
기계 학습의 유형
멘토의 지도가 있나요?
지도 학습
분류된 학습 스타일
비지도 학습
생성 학습 접근 방식
학습 전략
기억학습, 교수학습, 연역학습, 귀납학습
적용분야
전문가 동일 학습, 로봇 학습, 자연어 이해 학습
머신러닝 시스템의 기본 모델
환경
학습 시스템은 외부 소스이기도 한 외부 정보 모음을 인식합니다.
학습 세션
환경에서 제공되는 정보를 정리, 분석, 형태화하여 지식베이스에 담는다.
지식 기반
처리된 정보 저장
실행 링크
지식베이스를 기반으로 작업 수행
기억 학습
메모된 검색
시간과 공간을 교환하라
저장 구조
환경 안정성
메모리 대 계산 절충
사이먼의 체커 프로그램
예를 통해 알아보기
유형
예제 소스
교사, 학습자 자신, 외부 환경
예시 유형
긍정적인 예만 사용하세요
긍정적인 예와 부정적인 예를 사용하세요
모델
표본 공간
예제 모음
유도 과정
예로부터 일반 지식을 추출하는 귀납적 과정
일반 공간
다양한 법률 수집
검증과정
방금 요약한 규칙을 추가로 확인하고 수정하려면 예제 공간에서 새 인스턴스를 선택하세요.
긍정적인 예는 개념을 생성하는 반면, 반대 예는 확장을 확장하고 반례는 확장을 좁힙니다.
유도 방법
상수에서 변수로
조건을 제거하다
옵션 추가(∨ 연산)
곡선 피팅(최소 자승법)
의사결정나무 학습
의사결정나무의 개념
의사결정 트리에는 동일한 경로에 있는 모든 속성 간에 결합 관계가 있습니다.
ID3 알고리즘
개념
속성 선택 기준으로 정보 엔트로피의 감소 속도를 기반으로 한 학습 알고리즘
정보 엔트로피 감소를 극대화하는 원리에 따라 하위 트리를 분할하고 점차적으로 의사결정 트리를 구축합니다.
정보 엔트로피
정의
정보 엔트로피는 정보 소스의 전반적인 불확실성을 측정한 것이며, 그 값이 작을수록 정보 소스의 불확실성도 작아집니다.
엔트로피 정량 공식
확률과 정보 엔트로피는 무작위 사건이라는 동전의 양면입니다.
개연성
무슨 일이 일어날 가능성은 얼마나 되나요?
확실성의 특징
정보 엔트로피
어떤 것에는 얼마나 많은 가능성이 있습니까?
불확실성의 특성화
계산하다
공평하게 나눠진
어떤 사건에 m개의 동일한 확률 상황이 있을 때 엔트로피는 다음과 같습니다. n=로그(m)
베이스
2
비트
공통, 기본값
이자형
냇
미분 계산
10
벨
언어학
일반 유통
정의
이해하다
공동 엔트로피
정보 획득
정의
두 가지 정보량 사이의 차이를 측정하는 것
가중 정보 엔트로피
공식
단계
(4)
정보 엔트로피 E(S,X) 계산
참고: S는 노드입니다. 하위 노드인 경우 그 아래의 모든 S는 Si로 대체되어야 합니다. i는 하위 노드의 번호입니다.
각 속성 xi에 대해 별도로
해당 가중치 정보 엔트로피 E(S,xi)를 계산합니다.
먼저 St에 어떤 원소와 비율이 있는지 적어보고, St의 정보엔트로피 E(St,X)를 계산하고, 모든 계산이 완료될 때까지 이 과정을 반복합니다.
그런 다음 공식을 가져와 E((S,X),xi)를 계산합니다.
해당 정보 이득 G(S,Xi)를 계산합니다.
정보 획득이 가장 큰 속성을 확장합니다.
인공신경망 연결학습
개요
인공 신경망
개념
인공 뉴런은 위상적으로 연결되어 있다
약어
앤
구조
입력, 계산, 출력
연결된 학습
시냅스 연결 가중치의 수정 및 안정화 완료
분류
얕은 층
감지기
BP 네트워크
홉필드 네트워크
깊은
인공신경망의 생물학적 메커니즘
구조
수상돌기
입력하다
세포체
계산하다
축삭
산출
유형
돌출 개수에 따른 분류
뉴런의 전기생리학적 특성에 따른 분류
뉴런의 기능에 따른 분류
인공뉴런과 인공신경망의 구조와 모델
구조 및 모델
인공 뉴런
구조
MP 모델
유형
임계값 유형
조각별 선형 강포화 유형
S타입
하위 임계값 누적 유형
뉴런 모델은 간단한 분류기로 볼 수 있습니다.
인공 신경망
개념
인공 뉴런의 상호 연결로 형성된 네트워크
분류
특징
대규모 병렬 처리
정보의 분산 저장
학습능력이 있다
인공신경망의 상호연결(토폴로지) 구조
피드포워드 네트워크
개념
정방향 조인만 포함
단일 레이어 피드포워드 신경망
입력 레이어와 출력 레이어만 포함하고, 출력 레이어의 뉴런만 계산 가능한 노드입니다.
다층 피드포워드 신경망
입력 레이어와 출력 레이어 외에도 하나 이상의 숨겨진 레이어도 포함합니다.
BP 네트워크
피드백 네트워크
개념
피드백 연결과 루프 연결을 포함할 수 있습니다.
단일 레이어 피드백 네트워크
숨겨진 레이어가 없는 피드백 네트워크
다층 피드백 네트워크
숨겨진 레이어가 있는 피드백 네트워크
홉필드 네트워크
안정성은 에너지 함수로 설명됩니다.
인공 신경망의 얕은 모델
퍼셉트론 모델
목적
외부 입력 분류
외부 입력이 선형 분리 가능한 경우(Σ(Wij*xi-θj)=0 충족) 두 가지 범주로 나눌 수 있습니다.
단일 계층 퍼셉트론의 네트워크 토폴로지는 단일 계층 피드포워드 네트워크입니다.
단일 레이어 퍼셉트론은 선형 분리 문제를 해결합니다.
단일 레이어 퍼셉트론은 입력 레이어와 출력 레이어를 포함합니다.
퍼셉트론
퍼셉트론은 실제로 초평면을 구성하여 서로 다른 점을 분류합니다.
학습이라는 개념은 인간 두뇌의 학습 기능을 어느 정도 모사한 퍼셉트론에서 처음으로 도입됐다.
퍼셉트론과 뉴런 모델의 가장 큰 차이점은 퍼셉트론 모델이 훈련 샘플을 통해 학습할 수 있다는 점입니다.