마인드 맵 갤러리 인공지능 분야의 상위 10가지 알고리즘
많은 사람들에게 인공지능은 여전히 상대적으로 '진보된' 기술이지만, 기술이 아무리 발전하더라도 기본 원리부터 시작됩니다. 인공지능 분야에는 10가지 주요 알고리즘이 유통되고 있는데, 그 원리는 간단하고 아주 일찍부터 발견되어 적용되어 왔습니다. 이 기사에서는 일반인의 관점에서 10가지 알고리즘을 안내합니다.
2023-05-29 19:40:10에 편집됨이것은 (III) 저산소증-유도 인자 프롤릴 하이드 록 실라 제 억제제에 대한 마인드 맵이며, 주요 함량은 다음을 포함한다 : 저산소증-유도 인자 프롤릴 하이드 록 실라 제 억제제 (HIF-PHI)는 신장 빈혈의 치료를위한 새로운 소형 분자 경구 약물이다. 1. HIF-PHI 복용량 선택 및 조정. Rosalasstat의 초기 용량, 2. HIF-PHI 사용 중 모니터링, 3. 부작용 및 예방 조치.
이것은 Kuka Industrial Robots의 개발 및 Kuka Industrial Robot의 모션 제어 지침에 대한 마인드 맵입니다. 주요 내용에는 쿠카 산업 로봇의 역사, 쿠카 산업 로봇의 특성, 쿠카 산업 로봇의 응용 분야, 2. 포장 프로세스에서 쿠카 로봇은 빠르고 일관된 포장 작업을 달성하고 포장 효율성을 높이며 인건비를 줄입니다. 2. 인건비 감소 : 자동화는 운영자에 대한 의존성을 줄입니다. 3. 조립 품질 향상 : 정확한 제어는 인간 오류를 줄입니다.
408 컴퓨터 네트워크가 너무 어렵습니까? 두려워하지 마세요! 나는 피를 구토하고 지식 맥락을 명확히하는 데 도움이되는 매우 실용적인 마인드 맵을 분류했습니다. 컨텐츠는 매우 완전합니다. 네트워크 아키텍처에서 응용 프로그램 계층, TCP/IP 프로토콜, 서브넷 디비전 및 기타 핵심 포인트에 이르기까지 원칙을 철저히 이해하는 데 도움이 될 수 있습니다. 📈 명확한 논리 : Mindmas 보물, 당신은 드문 기회가 있습니다. 서둘러! 이 마인드 맵을 사용하여 408 컴퓨터 네트워크의 학습 경로에서 바람과 파도를 타고 성공적으로 해변을 얻으십시오! 도움이 필요한 친구들과 공유해야합니다!
이것은 (III) 저산소증-유도 인자 프롤릴 하이드 록 실라 제 억제제에 대한 마인드 맵이며, 주요 함량은 다음을 포함한다 : 저산소증-유도 인자 프롤릴 하이드 록 실라 제 억제제 (HIF-PHI)는 신장 빈혈의 치료를위한 새로운 소형 분자 경구 약물이다. 1. HIF-PHI 복용량 선택 및 조정. Rosalasstat의 초기 용량, 2. HIF-PHI 사용 중 모니터링, 3. 부작용 및 예방 조치.
이것은 Kuka Industrial Robots의 개발 및 Kuka Industrial Robot의 모션 제어 지침에 대한 마인드 맵입니다. 주요 내용에는 쿠카 산업 로봇의 역사, 쿠카 산업 로봇의 특성, 쿠카 산업 로봇의 응용 분야, 2. 포장 프로세스에서 쿠카 로봇은 빠르고 일관된 포장 작업을 달성하고 포장 효율성을 높이며 인건비를 줄입니다. 2. 인건비 감소 : 자동화는 운영자에 대한 의존성을 줄입니다. 3. 조립 품질 향상 : 정확한 제어는 인간 오류를 줄입니다.
408 컴퓨터 네트워크가 너무 어렵습니까? 두려워하지 마세요! 나는 피를 구토하고 지식 맥락을 명확히하는 데 도움이되는 매우 실용적인 마인드 맵을 분류했습니다. 컨텐츠는 매우 완전합니다. 네트워크 아키텍처에서 응용 프로그램 계층, TCP/IP 프로토콜, 서브넷 디비전 및 기타 핵심 포인트에 이르기까지 원칙을 철저히 이해하는 데 도움이 될 수 있습니다. 📈 명확한 논리 : Mindmas 보물, 당신은 드문 기회가 있습니다. 서둘러! 이 마인드 맵을 사용하여 408 컴퓨터 네트워크의 학습 경로에서 바람과 파도를 타고 성공적으로 해변을 얻으십시오! 도움이 필요한 친구들과 공유해야합니다!
인공지능 분야의 상위 10가지 알고리즘
1. 선형 회귀
정의
(선형 회귀)는 아마도 가장 널리 사용되는 기계 학습 알고리즘일 것입니다. 선형 회귀는 직선을 찾고 이 직선을 산점도의 데이터 점에 최대한 가깝게 맞추는 것입니다. 이 데이터에 직선 방정식을 맞춰 독립변수(x 값)와 수치 결과(y 값)를 표현하려고 합니다. 그러면 이 선을 사용하여 미래 가치를 예측할 수 있습니다!
이 알고리즘에 가장 일반적으로 사용되는 기술은 최소 제곱법입니다. 이 방법은 선의 각 데이터 점으로부터 수직 거리를 최소화하는 최적의 선을 계산합니다. 총 거리는 모든 데이터 포인트의 수직 거리(녹색 선)의 제곱의 합입니다. 아이디어는 이 제곱 오차 또는 거리를 최소화하여 모델을 맞추는 것입니다.
예를 들어 하나의 독립 변수(x축)와 하나의 종속 변수(y축)가 있는 단순 선형 회귀입니다.
일반적인 응용
예를 들어 내년 주택 가격 상승률, 다음 분기 신제품 판매 등을 예측합니다. 어렵지 않게 들리지만 선형회귀 알고리즘의 어려움은 예측값을 얻는 것이 아니라 더 정확하다는 것입니다. 그 아주 작은 숫자에 대해 얼마나 많은 엔지니어들이 젊음과 머리카락을 바쳤습니까?
2. 로지스틱 회귀
정의
로지스틱 회귀는 선형 회귀와 유사하지만 로지스틱 회귀의 결과는 두 개의 값만 가질 수 있습니다. 선형 회귀가 공개 값을 예측하는 경우 로지스틱 회귀는 예 또는 아니요 질문을 하는 것과 비슷합니다.
로지스틱 함수의 Y값은 0부터 1까지의 확률값이다. 로지스틱 함수는 일반적으로 그래프를 두 영역으로 나누는 S자형 곡선을 가지므로 분류 작업에 적합합니다.
예를 들어, 위의 로지스틱 회귀 그래프는 시험 합격 확률과 공부 시간의 관계를 보여주며, 시험 합격 여부를 예측하는 데 사용될 수 있습니다.
일반적인 응용
로지스틱 회귀는 전자상거래나 테이크아웃 플랫폼에서 카테고리에 대한 사용자의 구매 선호도를 예측하는 데 자주 사용됩니다.
3. 의사결정나무
정의
위의 그림은 의사결정 트리를 보여주며, 분기된 각 원을 노드라고 합니다.
각 노드에서 사용 가능한 기능을 기반으로 데이터에 대해 질문합니다. 왼쪽과 오른쪽 가지는 가능한 답을 나타냅니다. 최종 노드(즉, 리프 노드)는 예측 값에 해당합니다.
각 기능의 중요성은 하향식 접근 방식을 통해 결정됩니다. 노드가 높을수록 해당 속성이 더 중요해집니다. 예를 들어, 위의 예에서 교사는 숙제보다 출석이 더 중요하다고 생각하므로 출석 노드가 더 높고, 당연히 점수 노드도 더 높습니다.
선형 및 로지스틱 회귀가 모두 한 라운드에서 작업을 종료하는 경우 의사결정 트리(의사결정 트리)는 회귀 및 분류 작업에도 사용되지만 일반적으로 시나리오가 더 복잡하고 구체적입니다.
일반적인 응용
간단한 예를 들자면, 수업시간에 선생님이 학생들과 마주할 때, 좋은 학생은 누구일까요? 단순히 시험에서 90점을 받은 학생을 좋은 학생으로 평가할 뿐, 점수만으로는 판단할 수 없다는 것은 너무 조잡해 보입니다. 90점 미만인 학생의 경우 숙제, 출석, 질문 등을 별도로 논의할 수 있습니다.
4. 나이브 베이즈
정의
Naive Bayes는 두 조건 간의 관계인 Bayes의 정리를 기반으로 합니다. 이는 각 클래스의 확률, 즉 x 값이 주어진 각 클래스의 조건부 확률을 측정합니다. 이 알고리즘은 분류 문제에 사용되며 이진 예/아니요 결과를 생성합니다. 아래 방정식을 살펴보십시오.
일반적인 응용
Naive Bayes 분류기는 스팸 필터링에 고전적으로 적용되는 인기 있는 통계 기법입니다.
베이즈 정리를 비전문적으로 설명하려면 조건 A에서 B가 발생할 확률을 사용하여 조건 B에서 A가 발생할 확률을 구하는 것입니다. 예를 들어, 새끼 고양이가 당신을 좋아한다면, 당신 앞에서 배를 돌릴 확률은 %입니다. 만약 새끼 고양이가 당신 앞에서 배를 돌릴 때, 당신을 좋아할 확률은 얼마입니까? 물론 이 질문을 하는 것은 표면을 긁는 것과 같기 때문에 다른 데이터도 도입해야 합니다. 예를 들어, 새끼 고양이가 당신을 좋아한다면 당신에게 달라붙을 확률은 b%이고 가르랑거릴 확률은 c%입니다. 그렇다면 새끼 고양이가 우리를 좋아할 확률은 어떻게 알 수 있을까요? 베이즈 정리를 통해 배를 뒤집고, 찌르고, 가르랑거리는 확률로 이를 계산할 수 있습니다.
5. 지원 벡터 머신
정의
SVM(Support Vector Machine)은 분류 문제에 대한 지도 알고리즘입니다. 서포트 벡터 머신은 데이터 포인트 사이에 가장 큰 여백을 두고 두 개의 선을 그리려고 시도합니다. 이를 위해 데이터 항목을 n차원 공간의 점으로 표시합니다. 여기서 n은 입력 특성의 수입니다. 이를 기반으로 서포트 벡터 머신은 클래스 레이블별로 가능한 출력을 가장 잘 분리하는 초평면(hyperplane)이라는 최적의 경계를 찾습니다. 초평면과 가장 가까운 클래스 포인트 사이의 거리를 마진이라고 합니다. 최적의 초평면은 가장 가까운 데이터 포인트와 두 클래스 사이의 거리가 최대화되도록 포인트를 분류하는 마진이 가장 큽니다.
일반적인 응용
따라서 지원 벡터 머신이 해결하려는 문제는 많은 데이터를 분리하는 방법입니다. 주요 응용 시나리오에는 문자 인식, 얼굴 인식, 텍스트 분류 및 기타 인식이 포함됩니다.
6.K-최근접 이웃 알고리즘(KNN)
정의
KNN(K-Nearest Neighbors) 알고리즘은 매우 간단합니다. KNN은 전체 훈련 세트에서 K개의 가장 유사한 인스턴스 또는 K개의 이웃을 검색하고 이러한 모든 K개의 인스턴스에 공통 출력 변수를 할당하여 객체를 분류합니다.
K를 선택하는 것이 중요합니다. 값이 작을수록 많은 노이즈가 발생하고 결과가 부정확할 수 있으며 값이 클수록 실행 불가능합니다. 분류에 가장 일반적으로 사용되지만 회귀 문제에도 적합합니다.
인스턴스 간의 유사성을 평가하는 데 사용되는 거리는 유클리드 거리, 맨해튼 거리 또는 민코프스키 거리일 수 있습니다. 유클리드 거리는 두 점 사이의 일반적인 직선 거리입니다. 실제로는 점좌표 차이의 제곱합의 제곱근입니다.
일반적인 응용
KNN 이론은 간단하고 구현이 쉬우며 텍스트 분류, 패턴 인식, 클러스터 분석 등에 사용할 수 있습니다.
7.K-평균
정의
K-평균은 데이터 세트를 분류하여 클러스터링합니다. 예를 들어, 이 알고리즘을 사용하여 구매 내역을 기반으로 사용자를 그룹화할 수 있습니다. 데이터 세트에서 K개의 클러스터를 찾습니다. K-평균은 비지도 학습에 사용되므로 훈련 데이터 X와 K를 식별하려는 클러스터 수만 사용하면 됩니다.
알고리즘은 각 데이터 포인트를 특성에 따라 K개 그룹 중 하나에 반복적으로 할당합니다. 각 K-클러스터(중심이라고 함)에 대해 K 포인트를 선택합니다. 유사성을 기반으로 새 데이터 포인트가 중심이 가장 가까운 클러스터에 추가됩니다. 이 과정은 질량 중심의 변화가 멈출 때까지 계속됩니다.
일반적인 응용
K-means는 생활 속에서 사기 적발에 중요한 역할을 하며 자동차, 의료보험, 보험사기 적발 분야에서 널리 활용되고 있습니다.
8. 랜덤 포레스트
정의
Random Forest는 매우 인기 있는 앙상블 기계 학습 알고리즘입니다. 이 알고리즘의 기본 아이디어는 한 개인의 의견보다 많은 사람들의 의견이 더 정확하다는 것입니다. 랜덤 포레스트에서는 의사결정 트리의 앙상블을 사용합니다(의사결정 트리 참조).
(a) 훈련 과정에서 각 결정 트리는 훈련 세트의 부트스트랩 샘플을 기반으로 구성됩니다.
(b) 분류 중 입력 인스턴스에 대한 결정은 다수결을 기준으로 이루어집니다.
일반적인 응용
랜덤 포레스트는 마케팅부터 의료 보험까지 광범위한 응용 가능성을 갖고 있으며 마케팅 시뮬레이션을 모델링하고 고객 소스, 유지 및 손실을 계산하는 데 사용할 수 있으며 질병 위험 및 환자 민감성을 예측하는 데에도 사용할 수 있습니다.
9. 차원 축소
오늘날 우리가 수집할 수 있는 데이터의 양이 엄청나게 많기 때문에 기계 학습 문제는 더욱 복잡해졌습니다. 이는 훈련이 매우 느리고 좋은 솔루션을 찾는 것이 어렵다는 것을 의미합니다. 이 문제는 흔히 '차원성의 저주'라고 불린다.
차원 축소는 가장 중요한 정보를 잃지 않고 특정 기능을 상위 수준 기능으로 결합하여 이 문제를 해결하려고 시도합니다. 주성분 분석(PCA)은 가장 널리 사용되는 차원 축소 기술입니다.
주성분 분석은 데이터 세트를 저차원 선이나 초평면/부분 공간으로 압축하여 데이터 세트의 차원성을 줄입니다. 이렇게 하면 원본 데이터의 두드러진 특징을 최대한 많이 보존할 수 있습니다.
차원 축소의 예는 모든 데이터 포인트를 직선으로 근사화하여 얻을 수 있습니다.
10.인공신경망(ANN)
정의
인공 신경망(ANN)은 크고 복잡한 기계 학습 작업을 처리할 수 있습니다. 신경망은 본질적으로 뉴런이라고 불리는 가중치가 부여된 가장자리와 노드로 구성된 상호 연결된 레이어 세트입니다. 입력 레이어와 출력 레이어 사이에 여러 개의 숨겨진 레이어를 삽입할 수 있습니다. 인공 신경망은 두 개의 숨겨진 레이어를 사용합니다. 그 외에도 딥러닝을 다루어야 합니다.
인공 신경망은 뇌의 구조와 유사하게 작동합니다. 뉴런 그룹에 무작위 가중치가 부여되어 뉴런이 입력 데이터를 처리하는 방법을 결정합니다. 입력과 출력 사이의 관계는 입력 데이터에 대한 신경망을 훈련하여 학습됩니다. 훈련 단계에서 시스템은 정답에 접근할 수 있습니다.
네트워크가 입력을 정확하게 인식하지 못하는 경우 시스템은 가중치를 조정합니다. 충분한 훈련을 거친 후에는 올바른 패턴을 지속적으로 인식하게 됩니다.
각 원형 노드는 인공 뉴런을 나타내고 화살표는 한 인공 뉴런의 출력에서 다른 인공 뉴런의 입력으로의 연결을 나타냅니다.
일반적인 응용
이미지 인식은 신경망의 잘 알려진 응용 분야입니다.