전통문화대전망 - 전통 미덕 - 지능형 알고리즘과 기존 알고리즘의 관계
지능형 알고리즘과 기존 알고리즘의 관계
올해 초 구글 DeepMind 의 알파고는 한국 바둑 마스터 이세추를 물리쳤다. 언론이 DeepMind 의 승리를 묘사할 때 인공지능 (AI), 기계학습, 심도 있는 학습이 모두 사용되었다. 세 사람 모두 알파고가 이세진을 물리치는 과정에서 역할을 했지만, 그들이 말한 것은 같은 것이 아니다.
오늘 우리는 가장 간단한 방법인 동심원을 이용하여 그 중의 관계와 응용을 시각화한다.
위 그림에서 인공지능은 가장 오래되고 가장 큰 외부 동심원이다. (윌리엄 셰익스피어, 인공지능, 인공지능, 인공지능, 인공지능, 인공지능, 인공지능) 둘째, 기계 학습, 조금 늦게; 가장 안쪽은 심도 있는 학습으로 오늘날 인공지능 빅뱅의 핵심 원동력이다.
50 년대에는 인공지능이 한때 극도로 낙관적이었다. 나중에 인공 지능의 작은 하위 집합이 개발되었습니다. 먼저 기계를 공부하고, 다시 깊이 공부하다. 심화 학습은 기계 학습의 하위 집합이다. 심도 있는 학습은 전례 없는 영향을 미쳤다.
개념에서 번영에 이르기까지.
1956 년 몇 명의 컴퓨터 과학자들이 다트머스 회의에 모여' 인공지능' 이라는 개념을 제시했다. 그 이후로 인공지능은 줄곧 사람들의 머릿속에 맴돌며 과학 연구실에서 천천히 부화했다. 그 후 수십 년 동안 인공지능은 양극반전이나 인간 문명의 눈부신 미래에 대한 예언으로 불렸다. 또는 미친 기술적 아이디어로 쓰레기 더미에 던져질 수도 있습니다. 솔직히 20 12 까지 이 두 소리는 동시에 존재한다.
지난 몇 년 동안, 특히 20 15 이후 인공지능이 폭발하기 시작했다. 대부분 GPU 의 광범위한 사용으로 병렬 컴퓨팅이 더 빠르고 저렴하며 효과적이기 때문입니다. 물론, 무한한 저장 용량과 갑작스러운 데이터 홍수 (큰 데이터) 의 결합으로 이미지 데이터, 텍스트 데이터, 거래 데이터, 측량 데이터 등이 폭발합니다.
컴퓨터 과학자들이 어떻게 인공지능을 개발하는지, 가장 초기의 조짐부터 매일 수억 명의 사용자가 사용할 수 있는 앱에 이르기까지 천천히 정리해 보자. (존 F. 케네디, 컴퓨터명언)
|? 인공지능)-인간의 지능을 기계에 부여하다.
일찍이 1956 년 여름 그 회의에서 인공지능의 선구자들은 당시 등장한 컴퓨터를 이용하여 인간 지능과 같은 본질적 특징을 가진 복잡한 기계를 만드는 꿈을 꾸었다. 이것이 우리가 지금 "아이 장군" 이라고 부르는 것입니다. 이 전능한 기계는 우리의 모든 감각 (인간보다 더 많은 것) 을 가지고 있으며, 우리의 모든 이성은 우리처럼 생각할 수 있다. (윌리엄 셰익스피어, 햄릿, 지혜명언)
사람들은 항상 영화에서 이런 기계를 봅니다. 우호적이고, 스타워즈의 C-3PO 처럼요. 터미네이터와 같은 악. 강력한 인공지능은 여전히 영화와 공상 과학 소설에만 존재한다. 그 이유는 이해하기 어렵지 않다. 우리는 아직 그것들을 실현할 수 없다, 적어도 지금은 아직 할 수 없다.
우리가 지금 할 수 있는 것은 일반적으로' 좁은 AI' 라고 불린다. 약한 인공지능은 인간처럼 인간보다 특정 임무를 더 잘 수행할 수 있는 기술이다. 예를 들어, Pinterest 의 사진 분류; 페이스북의 얼굴 인식 같은 것들이죠.
이것들은 모두 실천에서 약한 인공지능의 예이다. 이러한 기술은 인간 지능의 특정 부분을 실현합니다. 그러나 그들은 어떻게 그것을 달성 했는가? 이 지혜는 어디에서 오는가? 이것은 우리를 동심원의 내부 층, 기계 학습으로 데려옵니다.
|? 기계 학습-인공 지능을 실현하는 방법
기계 학습의 가장 기본적인 방법은 알고리즘을 사용하여 데이터를 분석하고, 배우고, 실제 사건에 대한 결정과 예측을 하는 것이다. 기존의 하드 코딩 소프트웨어 프로그램이 특정 작업을 해결하는 것과는 달리 기계 학습은 대량의 데이터를 사용하여 "교육" 하고 다양한 알고리즘을 통해 데이터에서 작업을 완료하는 방법을 배웁니다.
기계 학습은 초기 인공지능 분야에서 직접 유래했다. 기존 알고리즘에는 의사 결정 트리 학습, 연역 논리 프로그래밍, 클러스터링, 강화 학습 및 베이지안 네트워크가 포함됩니다. 우리 모두 알고 있듯이, 우리는 아직 강력한 인공지능을 실현하지 못했다. 초기의 기계 학습 방법은 심지어 약한 인공지능도 실현할 수 없었다.
기계 학습의 가장 성공적인 응용 분야는 컴퓨터 시각이지만, 여전히 많은 수작업 코딩이 필요하지만 일을 완성할 수 있다. 프로그램이 객체가 시작하고 끝나는 위치를 인식할 수 있도록 분류자 및 모서리 감지 필터를 수동으로 작성해야 합니다. 탐지된 물체에 8 개의 모서리가 있는지 여부를 판단하는 모양 감지 프로그램을 작성합니다. 문자 "ST-O-P" 를 식별하는 분류자를 작성합니다. 이러한 손으로 쓴 분류기를 사용하여 사람들은 결국 이미지를 감지하여 이미지가 주차 표시인지 여부를 판단하는 알고리즘을 개발할 수 있습니다.
이 결과는 그런대로 괜찮지만, 사람을 상쾌하게 하는 성공은 아니다. 특히 흐린 날과 안개가 자욱한 날에는 표지판이 잘 보이지 않거나 나무 부분으로 덮여 있어 알고리즘이 성공하기 어려울 것이다. (데이비드 아셀, Northern Exposure (미국 TV 드라마), 계절명언) 이것이 얼마 전 컴퓨터 비전의 성능이 아직 인간에게 접근하지 못한 이유이다. 너무 융통성이 없어 환경 조건에 쉽게 방해를 받는다.
시간이 지남에 따라 학습 알고리즘의 발전은 모든 것을 변화시켰다.
|? 심화 학습-기계 학습을 실현하는 기술
인공신경망은 초기 기계 학습에서 중요한 알고리즘으로 수십 년간의 침몰을 겪었다. 신경 네트워크의 원리는 우리 뇌의 상호 연결된 뉴런의 생리 구조에 의해 영감을 받았다. 그러나 뇌의 한 뉴런이 일정 거리 내에 있는 모든 뉴런을 연결할 수 있는 것과는 달리, 인공 신경망은 별도의 레이어, 연결 및 데이터 전파 방향을 가지고 있습니다.
예를 들어, 이미지를 이미지 블록으로 잘라서 신경망의 1 층에 입력할 수 있습니다. 1 층의 각 뉴런은 데이터를 2 층으로 전송합니다. 2 층 뉴런은 비슷한 일을 하고 데이터를 3 층으로 전달하는 등 마지막 층까지 결과를 생성합니다.
각 뉴런은 자신의 입력에 가중치를 할당합니다. 이 가중치의 정확성은 수행하는 작업과 직접적으로 관련이 있습니다. 최종 출력은 이러한 가중치의 합에 의해 결정됩니다.
역패를 예로 들어보죠. 역표 이미지의 모든 요소를 깨고 뉴런으로' 검사' 한다. 팔각형 모양, 소방차 같은 빨강, 밝고 두드러진 글자, 교통 표지의 전형적인 크기, 정지된 운동 특징 등. 신경망의 임무는 정지 표지인지 아닌지에 대한 결론을 내리는 것이다. 신경망은 모든 가중치에 근거하여 심사숙고한 추측인' 확률 벡터' 를 제시한다.
이 경우, 시스템은 86% 가 주차 표시일 수 있다는 결과를 제공할 수 있습니다. 7% 는 속도 제한 표시일 수 있습니다. 5% 는 나무에 매달려있는 연 등이 될 수 있습니다. 그런 다음 네트워크 구조는 신경망의 결론이 올바른지 알려줍니다.
이런 상황에서도 조금 앞서가고 있다. 최근에야 신경망이 인공지능계에 잊혀졌다. 사실 인공지능 초기에는 신경망이 이미 존재하지만, 신경망이' 지능' 에 기여하는 것은 미미하다. 주요 문제는 가장 기본적인 신경망조차도 많은 계산이 필요하다는 것이다. 신경망 알고리즘의 연산 요구 사항을 충족하기가 어렵다.
하지만 토론토 대학의 제프리 싱턴을 대표하는 독실한 연구팀이 수퍼컴퓨팅을 목표로 하는 병렬 알고리즘의 컴퓨팅 및 개념 증명을 꾸준히 연구하고 있다. (윌리엄 셰익스피어, 윈스턴, Northern Exposure (미국 TV 드라마), Northern Exposure (미국 TV 드라마), 과학명언) 그러나 GPU 가 널리 사용될 때까지 이러한 노력은 효과를 보지 못했다.
이 주차 표지판 식별의 예를 돌아봅시다. 신경망은 변조와 훈련을 거쳐 때때로 실수하기 쉽다. 그것이 가장 필요한 것은 훈련이다. 훈련은 수백 ~ 수백만 장의 영상이 필요하다. 뉴런의 입력권이 매우 정확하게 조절될 때까지 안개 유무, 맑은 날, 비오는 날, 매번 정확한 결과를 얻을 수 있다.
그래야만 우리는 신경망이 주차 표지처럼 보이는 것을 성공적으로 배웠다고 말할 수 있다. 페이스북 앱에서, 신경망은 어머니의 얼굴을 스스로 배웁니다. 역시 20 12 에서 오은다 교수는 구글에서 신경망 학습 고양이의 외모 등을 실현했다.
오 교수의 돌파구는 이 신경망들이 기초에서 현저히 확대되었다는 것이다. 많은 층, 많은 뉴런, 그리고 대량의 데이터를 시스템 훈련 네트워크에 입력한다. 오 교수의 경우, 데이터는 1000 만 개의 유튜브 동영상에서 나온 영상이다. 오 교수는 심도 있는 학습에' 깊이' 를 더했다. 여기서' 깊이' 는 신경 네트워크의 많은 층을 가리킨다.
이제 심도 있는 학습과 훈련을 통해, 고양이 식별부터 혈액 속의 암 조기 성분 식별, 자기공명영상 속 종양 식별에 이르기까지 어떤 장면에서는 이미지식별이 사람보다 더 좋을 수 있다. (윌리엄 셰익스피어, 스튜어트, 자기관리명언) 구글의 알파고는 먼저 바둑을 배운 다음 자신과 바둑을 두었다. 자신의 신경망을 훈련시키는 방식은 끊임없이, 반복해서, 쉬지 않고 자신과 바둑을 두는 것이다.
|? 심도 있는 학습은 인공지능에 밝은 미래를 주었다.
심도 있는 학습을 통해 기계 학습이 많은 응용을 실현할 수 있게 하여 인공지능의 영역을 넓혔다. 심도 있는 학습은 모든 기계가 지원하는 기능을 가능하게 하는 파괴적인 방식으로 다양한 임무를 실현했다. 무인자동차, 예방의학, 심지어 더 좋은 영화 추천도 눈앞에 있거나 곧 실현될 것이다.
인공지능은 지금이고 내일이다. 심도 있는 학습을 통해 인공지능은 심지어 우리가 상상하는 공상 과학에 도달할 수 있다. 나는 너의 C-3PO 를 가져갔다. 나는 네가 너의 종결자를 가졌으면 좋겠다.