전통문화대전망 - 전통 미덕 - 인공지능과 기계 학습의 차이점은 무엇입니까

인공지능과 기계 학습의 차이점은 무엇입니까

인공지능과 기계학습의 차이점은 < P > 인공지능은 이미 새로운 명사가 아니며, 그것의 발전 역사는 이미 수십 년이 되었다. 198 년대 초부터 컴퓨터 과학자들은 인간의 행동을 배우고 모방할 수 있는 알고리즘을 설계했다. 학습 방면에서 가장 중요한 알고리즘은 신경망이지만 모델이 너무 강해서 데이터 지원이 부족해 그다지 성공하지 못했다. 그러나 좀 더 구체적인 임무에서는 데이터를 사용하여 함수에 적응하는 아이디어가 큰 성공을 거두었으며, 이는 기계 학습의 기초를 이루고 있다. (데이비드 아셀, Northern Exposure (미국 TV 드라마), 성공명언) 모방 방면에서 인공지능은 이미지 인식, 음성 인식 및 자연어 처리에 광범위하게 응용된다. 전문가들은 가장자리 계산, 컬러 프로파일, N-gram 언어 모델, 문법 트리 등을 만드는 데 많은 시간을 들였는데, 뜻밖에도 성적이 평범했다. < P > 기존의 기계 학습 < P > 기계 학습 (ML) 기술은 예측에서 중요한 역할을 했으며, 기계 학습은 여러 세대를 거쳐 < P > 선형 회귀 < P > Logistic 회귀 < P > 와 같은 완벽한 모델 구조를 갖추고 있습니다. 교육 예측 모델은 다음 단계로 구성됩니다.

1. 모델 구조 선택 (예: 논리적 회귀, 임의 숲 등).

2. 교육 데이터 (입력 및 출력) 를 사용하여 모델에 대한 피드백을 제공합니다.

3. 학습 알고리즘은 최적 모델, 즉 특정 매개변수가 있는 모델을 출력하여 교육 오류를 최소화합니다. < P > 각 모형마다 고유한 특징이 있어 일부 작업에서는 잘 수행했지만 다른 방면에서는 만족스럽지 못했다. 그러나 일반적으로 저전력 (단순) 모델과 고전력 (복합) 모델로 나눌 수 있습니다. 서로 다른 모형 사이에서 선택하는 것은 매우 까다로운 문제이다. 일반적으로 저전력/단순 모델을 사용하는 것이 고출력/복합 모델을 사용하는 것보다 낫습니다. 그 이유는 다음과 같습니다. < P > 대량의 처리 능력을 갖추기 전에 고출력 모델을 교육하는 데 시간이 오래 걸리기 때문입니다. < P > 엄청난 양의 데이터가 있을 때까지 고전력 모델을 개발하면 과맞춤 문제가 발생할 수 있습니다. (고전력 모델에는 다양한 데이터 모양에 적응할 수 있는 매개변수가 풍부하기 때문에 향후 데이터를 예측하는 대신 현재 교육 데이터와 매우 관련된 모델을 훈련시킬 수 있습니다.) < P > 그러나 저전력 모델을 선택하는 데는 "불충분한 맞춤" 문제가 있습니다. 즉, 모델 구조가 너무 간단해서 복잡한 경우 교육 데이터에 적응할 수 없습니다. (다음 데이터에 y = 5 * x 의 제곱이라는 2 차 관계가 있다고 가정합니다. 선형 회귀를 맞출 방법이 없습니다. y=A, B, B, B, B, 우리가 어떤 A 와 B 를 선택하든 상관 없습니다. ) < P >' 부적절한 문제' 를 완화하기 위해 데이터 과학자들은 종종' 도메인 지식' 을 적용하여' 입력 특성' 을 생성하는데, 이는 출력과 더 직접적인 관계가 있다. 예를 들어 2 차 관계 y = 5 * x 의 제곱으로 돌아간 다음 a = 5 및 b = 을 선택하여 선형 회귀를 맞춥니다. < P > 기계 학습의 주요 장애물 중 하나는 이 기능 엔지니어링 단계이며, 분야 전문가가 교육 과정에 들어가기 전에 중요한 신호를 식별해야 합니다. 피쳐 엔지니어링 단계는 매우 수작업이며 많은 분야의 전문 지식이 필요하기 때문에 오늘날 대부분의 기계 학습 작업의 주요 병목 현상이 되고 있습니다. 즉, 충분한 처리 능력과 충분한 데이터가 없다면 저전력/간단한 모델을 사용해야 합니다. 이를 위해서는 적절한 입력 특성을 만드는 데 많은 시간과 노력이 필요합니다. 이것은 대부분의 데이터 과학자들이 시간을 들여 하는 일이다. < P > 신경망의 컴백 < P > 2 년대 초 대용량 데이터 시대의 대량의 세밀한 이벤트 데이터 수집으로 클라우드 컴퓨팅과 대규모 병렬 처리 인프라가 발달하면서 기계 처리 능력이 크게 향상되었습니다. 우리는 더 이상 저전력/간단한 모델에 국한되지 않습니다. 예를 들어, 오늘날 가장 인기 있는 두 가지 주류 기계 학습 모델은 임의 숲과 그라데이션 향상 나무입니다. 그러나, 그들은 매우 강력 하 고 비선형 모델 피팅 교육 데이터를 제공 하지만, 데이터 과학자 들은 여전히 신중 하 게 좋은 성능을 달성 하기 위해 기능을 만들 필요가 있다. < P > 이와 동시에 컴퓨터 과학자들은 여러 층의 신경망을 재사용하여 이러한 인간 시뮬레이션 임무를 완수했다. 이것은 새로 태어난 DNN (심도 신경망) 이 이미지 분류 및 음성 인식 작업에 큰 돌파구를 제공한다.

DNN 의 주요 차이점은 원신호 (예: RGB 픽셀 값) 를 DNN 에 직접 보내도 도메인별 입력 특징이 없다는 것입니다. 다단계 뉴런 (이것이 바로' 깊은' 신경망이라고 불리는 이유) 을 통해 해당 기능을 자동으로 생성하여 각 층을 통해 좋은 예측을 제공할 수 있다. 이것은' 특징공학' 의 노력을 크게 절약하고 데이터 과학자들이 직면한 주요 병목 현상이다.

DNN 도 다양한 네트워크 구조로 발전했기 때문에 미국 케이블 뉴스 네트워크 (컨볼 루션 신경망), RNN (신경망), LSTM (장기 단기 메모리), 간 (생성 대 네트워크), 마이그레이션 학습, 모델 ... 전체 스펙트럼을 "라고 합니다

집중 학습

의 또 다른 중요한 부분은 한 사람 (또는 동물) 학습을 모방하는 방법입니다. 지각/행동/보상 주기의 매우 자연스러운 동물 행동을 상상해 보세요. 한 사람이나 동물은 먼저 그 사람이나 그녀가 어떤 상태에 있는지 감지함으로써 환경을 이해한다. (존 F. 케네디, 동물명언) 이를 바탕으로, 그 또는 그녀는 "동작" 을 선택하여 그 또는 그녀를 다른 "상태" 로 데려간 다음, 그 또는 그녀는 "보상" 을 받게 되어 반복된다. < P > 이 학습 방법 (강화 학습이라고 함) 은 기존의 감독 기계 학습을 위한 곡선 맞춤 방법과 매우 다릅니다. 특히 강화 학습의 발생은 매우 빠르다. 모든 새로운 피드백 (예: 동작 수행 및 보상 획득) 이 즉시 전송되어 후속 결정에 영향을 미치기 때문이다. 강화학습은 이미 큰 성공을 거뒀고, 자동운전차와 알파고 (바둑로봇) 에서 큰 성공을 거두었다. < P > 집중 학습도 신념의 현재 상태와 가능한 전환 확률을 유지할 때 서로 다른 조치를 취하고 어떤 조치가 최상의 결과를 가져올지 결정하기 때문에 부드러운 예측 및 최적화 통합을 제공합니다.

심화 학습+집중 학습 = 인공지능

은 고전 기계 학습 기술보다 더 강력한 예측 모델을 제공하며 일반적으로 좋은 예측을 생성합니다. 학습을 강화하면 클래식 최적화 모델보다 학습 메커니즘이 빨라지고 환경 변화에 더 잘 적응할 수 있습니다.