전통문화대전망 - 전통 미덕 - 22 추천 시스템 기술 진화 동향 이해

22 추천 시스템 기술 진화 동향 이해

문장' 추천 시스템 기술 진화 추세: 리콜에서 시퀀싱, 스케줄 조정에 이르기까지' 참고 사항:

' 추천 시스템 기술 진화 추세: 리콜에서 시퀀싱, 스케줄 조정에 이르기까지' 문장 는 최근 2 년간 추천 시스템 기술의 뚜렷한 기술 발전 추세를 주로 다루고 있다. 주로

추천 시스템 전체 아키텍처

리콜 기술 진화 추세

순차 모델 기술 진화 추세

스케줄 조정 기술 진화 추세

추천 시스템 매크로 아키텍처:

세분화 4 단계:

1, 전통 단일 피쳐 정렬을 다중 피쳐 정렬의 모델로 확장)

(1) 모델 리콜 < P > 사용자 품목 Embedding 에 따라 Faiss 와 같은 효율적인 Embedding 검색 도구를 사용하여 사용자의 관심사와 일치하는 항목을 신속하게 찾을 수 있습니다. 이는 다중 피쳐 융합을 활용하는 리콜 모델을 만드는 것과 같습니다. < P > 이론적으로 볼 수 있는 감독 모델은 FM/FFM/DNN 과 같은 리콜 모델을 만드는 데 사용할 수 있습니다. 흔히' 쌍탑' 모델이라고 하는 것은 사실 사용자측과 물품측 특징 분리가 각각 Embedding 을 때리는 구조일 뿐 구체적인 모델은 아닙니다.

리콜 단계에서 모델 리콜을 사용하는 경우 이론적으로 정렬 모델과 동일한 최적화 목표를 동시에 사용해야 합니다. 특히 정렬 단계에서 다목표 최적화를 사용하는 경우 리콜 모델도 동일한 다목표 최적화를 수행해야 합니다. 마찬가지로, 전체 프로세스에 굵은 행 모듈이 포함되어 있는 경우, 굵은 행도 정밀한 행과 동일한 다목적 최적화를 사용해야 하며, 여러 링크 최적화 목표는 일치해야 합니다. 리콜과 굵은 행은 정류의 앞부분이기 때문에 최적화 목표가 일치하지 않으면 고품질의 정준 목표가 나타날 수 있으며, 앞부분에서 필터링될 가능성이 있어 전반적인 효과에 영향을 줄 수 있습니다.

(2) 사용자 동작 시퀀스 리콜 < P > 의 핵심은 이 품목 집합 함수 Fun 이 어떻게 정의하는지에 대한 문제입니다. 여기서 주목해야 할 점은 사용자 행동 시퀀스의 항목이 시간순으로 되어 있다는 것입니다. 이론적으로, 타이밍 특성이나 피쳐 로컬 연관성을 반영하는 모든 모델은 CNN, RNN, Transformer, GRU(RNN 의 변형 모델) 등과 같은 일반적인 사용자 동작 시퀀스 정보를 통합하는 데 더 적합합니다. < P > 리콜 단계에서 사용자 행동 순서에 따라 embedding 을 치는 방법은 Next Item Prediction 의 예측 방법과 같은 감독 모델을 채택할 수 있습니다. 또한 Sum Pooling 과 같은 사용자 행동 시퀀스 콘텐츠를 무감독 방식으로 통합할 수 있습니다 (예: embedding 을 할 수 있는 한, Sumpooling 등).

(3) 사용자 관심 분할 (사용자 행동 항목 시퀀스를 사용하여 사용자 관심 Embedding 의 접근 방식 입력)

(4) 지식지도 융합 리콜 < P > 사용자의 관심 개체에 따라 지식지도의 실체인 Embedding 을 통해 표현 후 (또는 지식지도에 직접 표시)

(5) 그림 신경망 모델 리콜 < P > 그림 신경망의 최종 목적은 특정 기술적 수단을 통해 그림에 있는 노드의 embedding 코드를 얻는 것입니다. 가장 일반적으로 사용되는 embedding 집계 도구는 CNN 으로, 그림 노드에 대한 입력에는 두 가지 유형의 정보가 있을 수 있습니다. 하나는 위에서 언급한 웨이보의 예와 같은 자체 속성 정보입니다. 또 다른 클래스는 맵 구조 정보, 즉 현재 노드와 직접 모서리 연관이 있는 추가 노드 정보입니다. CNN 을 사용하면 두 가지 유형의 정보를 인코딩하고 집계하여 그래프 노드의 embedding 을 형성할 수 있습니다. CNN 과 같은 정보 집계기를 통해 그래프 노드에서 계산을 수행하고 그래프 노드의 embedding 을 반복적으로 업데이트하면 신뢰할 수 있는 그래프 노드 embedding 정보를 얻을 수 있습니다. 이 반복 프로세스는 장거리 노드가 그래프 구조를 통해 정보를 단계적으로 전달하는 과정을 보여 주므로 그래프 구조는 지식 전달과 보완이 가능합니다. < P > 그림 노드는 품목에 대한 컨텐트 정보와 같은 속성 정보를 가질 수 있기 때문에 품목 측면의 콜드 스타트 문제를 해결하는 데 도움이 된다는 점을 더 생각해 볼 수 있습니다. 또한 그림의 먼 거리에서 지식을 전달할 수 있기 때문에, 예를 들어 사용자 행동이 적은 장면에서는 지식 전달과 보충을 형성할 수 있습니다. 즉, 데이터 희소성을 위한 권장 장면에도 더 적합합니다. 한편, 그림의 가장자리는 종종 사용자 행동을 통해 구축되는 반면, 사용자 행동은 통계적으로 볼 때 본질적으로 우리가 흔히 말하는' A 품목 협동 B 품목' 과 같은 시너지 정보입니다. 본질적으로 많은 사용자가 품목 A 를 행동한 후, 큰 확률이 품목 B 에 대해 행동합니다. 따라서 그림의 좋은 장점 중 하나는 협업 정보, 사용자 행동 정보, 컨텐츠 속성 정보 등 다양한 이질적인 정보를 하나의 통합 프레임워크에 통합하고 embedding 의 형태로 통일적으로 표상하는 것이 더 쉽다는 것입니다. 이것이 유일한 장점입니다. 비교적 자연스럽습니다. 또 다른 고유한 장점은 그림의 정보 전파성이므로 권장되는 콜드 스타트 및 데이터 스파스 장면에 특히 유용합니다. < P > 초기의 그림 신경망은 글로벌 정보가 필요하기 때문에 계산 속도가 문제이며, 종종 그림 크기가 매우 작아 실전 가치가 없는 경우가 많다. GraphSAGE 는 인접한 노드에서 샘플링하는 것과 같은 수단을 통해 계산 규모를 줄이고 계산 속도를 높이며, 많은 후기의 컴퓨팅 효율을 개선하는 방법은 이 작업에서 파생됩니다. PinSage 는 GraphSAGE (같은 사람이 만든 것) 를 바탕으로 대규모 분산 컴퓨팅을 통해 그림 컴퓨팅의 실용성을 확대하고 Pinterest 의 3 억 규모 노드, 18 억 규모 가장자리의 거대한 그림을 계산하고 더 나은 착지 효과를 낼 수 있습니다. 그래서 이 두 가지 일은 중점적으로 참고할 수 있다. < P > 전반적으로 그림 모델 리콜은 매우 유망한 탐구할 만한 방향이다. < P > 모델 최적화 목표는 우리가 시스템을 추천하고 싶은 것을 보여 주며, 종종 비즈니스 목표와 관련이 있습니다. 여기서 우리는 주로 기술적 관점에서 논의하고, 다목적 최적화 및 ListWise 최적화는 현재 가장 일반적인 기술 진화 방향이며, ListWise 최적화 목표는 정렬 단계와 재정렬 단계 모두에서 사용할 수 있습니다. 우리는 그것을 재정렬 부분에 두고, 여기서는 주로 다목표 최적화를 소개한다. < P > 모형 표현 능력은 피쳐 조합, 새로운 피쳐 추출기, 향상된 학습 기술 응용 프로그램, AutoML 이 모형 구조를 자동으로 탐색하는 것이 명백한 기술 진화 방향임을 보여 주는 효과적인 피쳐 및 피쳐 조합을 최대한 활용할 수 있는지 여부를 나타냅니다. < P > 특징 및 정보 관점에서 더 풍부한 새로운 유형의 기능을 채택하는 방법, 정보 및 기능의 확장 및 융합이 주요 기술 진화 방향이며, 사용자의 장기 관심 분리, 사용자 행동 시퀀스 데이터 사용, 그래프 신경망, 멀티 모달 융합 등이 이 분야의 주요 기술 추세입니다.

1.1 모델 최적화 목표-다목표 최적화 < P > 권장 시스템의 다목표 최적화 (클릭, 상호 작용, 시간 등 여러 목표를 동시에 최적화) 는 단순한 추세가 아니라 현재 많은 회사의 R&D 상태입니다. 추천 시스템의 경우 최적화 목표에 따라 서로 뒷다리를 당기는 현상이 있을 수 있으며, 다목표는 서로 다른 목표의 상호 영향을 균형 있게 조정하도록 설계되어 있으며, 다목표 최적화 효과가 좋으면 비즈니스 효과에 대한 추진력도 매우 큽니다. 결론적으로, 다목적 최적화는 시스템 관련 R&D 인력을 추천할 만한 기술 방향입니다.

기술적 관점에서 다목표 최적화에서 가장 중요한 두 가지 문제가 있습니다. 첫 번째 문제는 여러 최적화 목표의 모델 구조 문제입니다. 두 번째 문제는 서로 다른 최적화 목표의 중요성이 어떻게 정의되는가에 대한 질문입니다 (초삼이 어떻게 최적화되는지).

2.1 모델 표현 능력-명시적 피쳐 조합 < P > 산업 CTR 모델의 진화 역사를 요약하면 피쳐 엔지니어링 및 피쳐 조합의 자동화가 실용화 추천 시스템 기술의 발전을 촉진하는 가장 중요한 방향이며 그 중 하나가 없다는 것을 알 수 있습니다. 가장 초기의 LR 모델은 기본적으로 인공 피쳐 엔지니어링과 수동 피쳐 조합으로 간단하면서도 효과적이지만 시간이 많이 걸립니다. (주: LR 모델, LR 모델, LR 모델, LR 모델, LR 모델, LR 모델) LR+GBDT 의 고급 피쳐 조합 자동화 및 FM 모델의 2 차 피쳐 조합 자동화로 발전했습니다. 다음은 DNN 모델의 도입입니다. 순수 단순 DNN 모델은 본질적으로 FM 모델의 피쳐인 Embedding 을 기반으로 몇 개의 MLP 은층을 추가하여 암시적 피쳐 비선형 자동 조합을 수행하는 것입니다.

2.2 모델 표현 기능-피쳐 추출기의 진화 < P > 피쳐 추출기의 관점에서 현재 메인스트림 DNN 정렬 모델, 가장 일반적으로 사용되는 피쳐 추출기는 여전히 MLP 구조, 이미지 영역의 CNN, NLP 영역의 RNN 및 Transformer 입니다.

MLP 구조는 일반적으로 2 ~ 3 층의 MLP 은층입니다. 현재 MLP 구조가 피쳐 조합을 캡처하는 데 사용되는 것은 비효율적이라는 이론적 연구도 있다.

CNN 로컬 피쳐 연관을 캡처하는 것은 매우 효과적인 구조이지만, 추천 영역의 특징 간에 입력 순서에 대한 필연적인 시퀀스 관계, CNN 의 장거리 피쳐 관계 캡처 능력이 떨어지는 약점, RNN 의 병렬 처리 불가, 속도가 느린 단점 등이 있기 때문에 순수 피쳐 입력을 위한 권장 모델에는 적합하지 않습니다.

Transformer 는 NLP 분야의 최신형이자 가장 효과적인 피쳐 추출기로서, 작동 메커니즘으로는 추천을 하기에 매우 적합하다. 왜 그렇게 말하죠? 핵심은 Transformer 의 Multi-Head Self Attention 메커니즘에 있다. MHA 구조는 NLP 에서 입력 문장에 있는 두 단어의 관련성을 판단하고, 이 관계를 추천 분야에 적용하면 MHA 를 통해 모든 특징을 조합하는 것입니다. 앞서 언급했듯이, 기능 조합은 추천에 매우 중요한 부분이기 때문에 이 각도에서 Transformer 는 피쳐 조합을 모델링하는 데 특히 적합합니다. 그러나 실제로 Transformer 를 사용하여 추천을 하면 적용 효과가 뚜렷한 우세를 반영하지 않고, 어떤 장점도 보이지 않고, 기본적으로 전형적인 MLP 구조의 효과보다 약간 우수하거나 비슷하다. 즉, Transformer 를 NLP 의 구조를 완전히 그대로 옮기는 대신 추천 영역의 특징에 맞게 개조해야 할 수도 있습니다.

Transformer 에 대한 선생님의 다른 그림을 잘라 Transformer 의 의미를 설명하기에 충분하지만, 아직 잘 이해하지 못한다. 하하 ~

2.3 AutoML 권장 애플리케이션

AutoML 이 17 년 초부터 등장해 최근 3 년 동안 호황을 누리고 있다

2.4 향상 학습권장 애플리케이션 < P > 향상 학습은 권장 장면 모델링과 잘 일치합니다. 일반적으로 학습 향상에는 상태, 행동 및 보고와 같은 몇 가지 핵심 요소가 있습니다. 추천 시나리오에서 상태 St 를 사용자의 행동 내역 항목 모음으로 정의할 수 있습니다. 추천 시스템 옵션 동작 공간은 사용자의 현재 상태 St 를 기준으로 사용자에게 권장되는 권장 결과 목록입니다. 여기서 볼 수 있듯이, 권장 장면에서는 사용자 동작 공간이 어마합니다. 이로 인해 거대한 동작 공간을 모델링할 수 없는 많은 향상된 학습 방법의 적용이 제한됩니다. 보답은 사용자가 추천 시스템에서 제공한 목록 내용에 대해 상호 작용하는 행동가치입니다. 예를 들어, 어떤 물건을 클릭했다는 것을 정의할 수 있다면, 수익은 1 이고, 어떤 물건을 구매하고, 수익은 5 ... 등등. 이러한 피쳐에 대한 장면 정의를 통해 일반적인 향상된 학습을 사용하여 권장 사항을 모델링할 수 있습니다.

3.1? 멀티 모달 정보 융합 < P > 멀티 모달 융합은 기술적으로 서로 다른 모달 유형의 정보를 Embedding 인코딩과 같은 통합 의미 공간에 매핑하여 서로 다른 모달 정보를 동일한 의미를 표현하는 정보를 완전히 비유할 수 있게 합니다. (존 F. 케네디, Northern Exposure (미국 TV 드라마), Northern Exposure (미국 TV 드라마), 예술명언) 예를 들어 자연어로 말하는 단어' 사과' 와 사과 한 장의 사진은 특정 기술적 수단을 통해 정보를 인코딩해야 한다. 예를 들어, 엠버딘은 유사성이 높다는 것은 서로 다른 모달 지식이 같은 의미공간에 매핑되었다는 것을 의미한다. 이렇게 하면 사과가 들어 있는 사진을 검색하는 것과 같은 텍스트 사과를 통해 검색할 수 있습니다.

3.2? 장기 관심 분야/단기 관심 분리 < P > 는 추천 시스템에 대한 사용자 관심을 정확하게 설명하는 데 매우 중요합니다. 현재 일반적으로 사용되는 사용자 흥미를 설명하는 방법에는 크게 두 가지가 있습니다. 하나는 사용자 측 특징의 관점에서 사용자의 흥미를 표상하는 것이고, 또한 가장 흔한 것이다. 또 다른 종류는 사용자가 행동을 한 물품의 순서를 사용자의 관심의 표상으로 삼는 것이다.

목록 와이어 순서 변경과 관련하여 두 가지 관점 중 하나는 최적화 목표 또는 손실 함수입니다. 하나는 추천 모듈의 모델 구조입니다.

추천 시스템에서 Learning to Rank 를 정렬하면 Point Wise, Pair Wise, List Wise 등 세 가지 일반적인 최적화 목표가 있다는 것을 알 수 있습니다. 따라서 List Wise 는 특정 모델 또는 특정 유형의 모델을 의미하는 것이 아니라 모델의 최적화 목표 또는 손실 함수 정의 방법을 의미합니다. 이론적으로 사용되지 않는 모든 모델은 List Wise 손실을 사용하여 모델 교육을 수행할 수 있습니다. 가장 간단한 손실 함수 정의는 Point Wise 입니다. 즉, 사용자 특성과 개별 항목 특성을 입력하고, 이 항목에 점수를 매기며, 항목 간 정렬은 누가 누구 앞에 있어야 하는지, 신경쓰지 않는 것입니다. (존 F. 케네디, Northern Exposure (미국 TV 드라마), 손실명언) 분명히 이런 방식은 훈련이든 온라인 추론이든 매우 간단하고 직접적인 효율이 높지만, 물건의 직접적인 연관성을 고려하지 않는 것이 단점이며, 이는 실제로 정렬에 유용하다는 것이다. Pair Wise 손실은 모델을 훈련시킬 때 두 항목의 순서 관계로 모델을 직접 훈련시킵니다. 즉, 최적화 목표는 품목 A 정렬이 품목 B 보다 높다는 것입니다. 이와 유사한 최적화 목표입니다. 사실, Pair Wise 의 Loss 는 BPR 손실, 즉 전형적이고 효과적인 Pair Wise 의 Loss Function 과 같은 추천 분야에서 이미 널리 사용되고 있습니다. 특히 암시적 피드백에서는 그렇습니다