전통문화대전망 - 전통 미덕 - 인공 지능 알고리즘 소개

인공 지능 알고리즘 소개

인공지능의 3 대 초석, 즉 알고리즘, 데이터, 계산 능력 중 하나인 알고리즘이 매우 중요하다면 인공지능에는 어떤 알고리즘이 관련될까요? 다른 알고리즘이 적용되는 장면은 무엇입니까?

1. 모델 훈련 방식에 따라 감독학습, 감독없는 학습, 반감독학습 (semi-Supervised Learning) 으로 나눌 수 있다

일반적인 감독 학습 알고리즘에는

(1) 인공신경망 (Artificial Neural Network) 클래스: 역전파 (Backpropagation), 볼츠만 기계 (Boltzmann Machine) 가 포함됩니다 Hopfield 네트워크, 다중 레이어 센서, Radial Basis Function Network, RBFN), 제한된 볼츠만 기계 (Restricted Boltzmann Machine), RNN (Recurrent Neural Network), 자체 조직 매핑 (self-organize)

(2) 베이지안 클래스 (Bayesin): Naive Bayes, Gaussian Naive Bayes, 여러 naive Bayes (Multinomial Naive Bayes) AODE)

베이지안 신념 네트워크 (BBN), 베이지안 네트워크 (Bayesian Network, BN) 등.

(3) 의사 결정 트리 클래스: 분류 및 회귀 트리 (CART), 반복 dichotomiser 3 (itee C4.5 알고리즘 (C4.5 Algorithm), C5. 알고리즘 (C5. Algorithm), 카이 제곱 자동 상호 작용 탐지 (chi-squared automatic interaction detection, CHAID), 의사 결정 잔여물 (Decision Stump), ID3 알고리즘 (ID3 Algorithm), 랜덤포리스트 (Random Forest), sliq (supervised learning is)

(4) 선형 분류기 클래스: 피셔의 선형 판별

선형 회귀 다중 논리 회귀 (Multionmial Logistic Regression), Naive Bayes Classifier, 인식 (Perception), 지원 벡터 머신 (support vector)

일반적인 감독되지 않은 학습 클래스 알고리즘은 다음과 같습니다.

(1) 인공 신경망 클래스: 대항네트워크 생성 (Generative Adversarial Networks, gas)

(2) 상호 관계 규칙 학습 클래스: 선험적 알고리즘 (Apriori Algorithm), Eclat 알고리즘 (Eclat Algorithm), FP

(3) 계층 클러스터링 알고리즘: 단일 체인 클러스터링, 개념 클러스터링 (Conceptual Clustering)

(4) 클러스터 분석: birch 알고리즘, DBSCAN 알고리즘, 예상 최대화 (Expectation-maximization, EM), 퍼지 클러스터링

(5) 예외 감지 클래스: k 가장 가까운 이웃 (K-nearest Neighbor, KNN) 알고리즘, 로컬 예외 계수 알고리즘 (Local Outlier Factor)

일반적인 반 감독 학습 클래스 알고리즘으로는 모델 생성 (Generative Models), 저밀도 분리 (Low-density Separation), 그래프 기반 방법 (Graph-based Methods) 이 있습니다

일반적인 집중 학습 클래스 알고리즘으로는 q 학습, 상태-행동-보상-상태-행동 (state-action-reward-state-action) 이 있습니다

일반적인 심화 학습 알고리즘으로는 Deep Belief Machines, deep convolutional neural networks, deep recurrent networks 등이 있습니다 HTM (Hierarchical Temporal Memory), DBM (Deep Boltzmann Machine), 스택 자동 인코더 (Stacked Autoencoder) < P > 2, 해결 작업에 따라 대략적으로 2 분류 알고리즘 (Two-class Classification), 다중 분류 알고리즘 (multi-classification), 회귀 알고리즘 (Regression algorithm) 으로 분류할 수 있습니다

1.2 분류 (Two-class Classification)

(1) 2 분류 지원 벡터 머신 (Two-class SVM): 데이터 특성이 많은 선형 모형의 장면에 적합합니다.

(2) 2 분류 평균 센서 (Two-class Average Perceptron): 교육 시간이 짧은 선형 모델의 시나리오에 적합합니다.

(3) Two-class Logistic Regression: 교육 시간이 짧은 선형 모형 시나리오에 적합합니다.

(4) 2 분류 베이지안 포인트 머신 (Two-class Bayes Point Machine): 교육 시간이 짧고 선형 모델에 적합한 장면. (5) 2 분류 의사 결정 포리스트 (Two-class Decision Forest): 교육 시간이 짧고 정확한 시나리오에 적합합니다.

(6) 2 분류 승천 결정 트리: 교육 시간이 짧고 정확도가 높으며 메모리 사용량이 많은 시나리오

(7) 2 분류 의사 결정 정글 (two)

(8) 2 분류 로컬 깊이 지원 벡터 머신 (Two-class Locally Deep SVM): 데이터 특성이 많은 장면에 적합합니다.

(9) 2 분류 신경망: 정확도가 높고 교육 시간이 긴 시나리오에 적합합니다. < P > 다중 분류 문제 해결은 일반적으로 데이터 세트 및 적용 가능한 방법부터 시작하여 2 분류기를 사용하여 다중 분류 문제를 해결하는 세 가지 솔루션을 적용합니다. 둘째, 다중 분류 기능을 갖춘 다중 분류기를 직접 사용합니다. 셋째, 2 분류기를 다중 분류기로 개선하여 오늘 다중 분류 문제를 해결합니다.

일반적으로 사용되는 알고리즘:

(1) 다중 분류 논리 회귀: 교육 시간이 짧고 선형 모델을 위한 장면.

(2) 다중 분류 신경망: 정확도가 높고 교육 시간이 긴 장면에 적합합니다.

(3) 다중 분류 의사 결정 포리스트: 정확도가 높고 교육 시간이 짧은 시나리오에 적합합니다.

(4) 다중 분류 의사 결정 정글 (Multiclass Decision Jungle): 정확도가 높고 메모리 사용량이 적은 장면에 적합합니다.

(5) "일대다" 다중 분류: 2 분류기 효과에 따라 달라집니다.

회귀

회귀 문제는 일반적으로 분류 대신 특정 숫자 값을 예측하는 데 사용됩니다. 반환된 결과가 다르다는 점을 제외하면 다른 방법은 분류 문제와 유사합니다. 우리는 양적 출력 또는 연속 변수 예측을 회귀라고 부릅니다. 질적 출력 또는 이산 변수 예측을 분류라고 합니다. 긴 수건의 알고리즘은

(1) 정렬 회귀 (Ordinal Regression): 데이터 분류에 적합한 장면입니다.

(2) 포아송 회귀 (Poission Regression): 이벤트 수를 예측하는 시나리오에 적합합니다.

(3) 고속 포리스트 분위수 회귀: 예측 분포에 적합한 장면입니다.

(4) 선형 회귀: 교육 시간이 짧고 선형 모형의 시나리오에 적합합니다.

(5) 베이지안 선형 회귀: 선형 모델에 적합하며 교육 데이터 양이 적은 장면입니다.

(6) 신경망 회귀: 정확도가 높고 교육 시간이 긴 장면에 적합합니다.

(7) 의사 결정 포리스트 회귀: 정확도가 높고 교육 시간이 짧은 시나리오에 적합합니다.

(8) 향상된 의사 결정 트리 회귀: 정확도가 높고 교육 시간이 짧으며 메모리 사용량이 많은 시나리오에 적합합니다. < P > 클러스터 < P > 클러스터링의 목표는 데이터의 잠재적 규칙과 구조를 찾는 것입니다. 클러스터는 일반적으로 서로 다른 데이터 소스 간의 유사성을 설명하고 측정하고 데이터 소스를 서로 다른 클러스터로 분류하는 데 사용됩니다.

(1) 계층 클러스터링: 교육 시간이 짧고 데이터 양이 많은 장면에 적합합니다.

(2)K-means 알고리즘: 정확도가 높고 교육 시간이 짧은 시나리오에 적합합니다.

(3) 퍼지 클러스터링 FCM 알고리즘 (Fuzzy C-means, FCM): 정확도가 높고 교육 시간이 짧은 시나리오에 적합합니다.

(4)SOM 신경망 (Self-organizing Feature Map, SOM): 실행 시간이 긴 장면에 적합합니다. < P > 예외 감지 < P > 예외 감지는 데이터에 존재하는 비정상적이거나 비정형적인 분리를 감지하고 플래그를 지정하는 것을 의미하며 편차 감지라고도 합니다. < P > 이상 탐지는 학습 문제를 감독하는 것과 매우 유사하게 보이며 분류 문제입니다. 모두 샘플의 라벨을 예측하고 판단하지만, 실제로 두 가지의 차이는 매우 크다. 왜냐하면 이상감지에서 정샘플 (이상점) 이 매우 작기 때문이다. 일반적으로 사용되는 알고리즘은 다음과 같습니다.

(1) 분류 지원 벡터 머신 (One-class SVM): 데이터 특성이 많은 장면에 적합합니다.

(2) PCA 기반 이상 탐지 (PCA-based Anomaly Detection): 교육 시간이 짧은 시나리오에 적합합니다.

일반적인 마이그레이션 학습 클래스 알고리즘에는 유도 마이그레이션 학습 (Inducti) 이 포함됩니다