두 사람이 거실의 소파에 나란히 앉아 있습니다. 한 사람이 TV 리모컨을 사용하여 평면 TV에 표시된 스트리밍 서비스 선택 메뉴를 탐색하고 있습니다

추천 시스템: AI를 사용하여 관련성 및 가치 향상

강력한 AI 하드웨어 및 소프트웨어 솔루션을 사용하여 적절한 사용자와 적절한 콘텐츠를 매칭하는 추천(또는 추천자) 시스템으로 높은 사용자 참여와 매출을 창출하십시오.

추천 시스템 요점

  • 추천 시스템은 AI를 사용하여 관련 및 원하는 콘텐츠, 제품, 서비스를 최종 사용자에게 제안합니다.

  • 좋은 추천 시스템은 정확하고 비용 효율적입니다.

  • 추천자는 여러 AI 모델의 조합을 사용하여 분류, 재현 및 순위 지정을 수행합니다.

  • 워크로드 집약적인 추천 시스템은 데이터 센터 인프라의 병렬화를 통해 AI 학습 및 추론을 확장합니다.

  • 선도적인 추천자는 인텔® GPU, AI 프로세서, 코어 수가 많은 프로세서, 최적화된 소프트웨어의 조합을 활용합니다.

author-image

기준

추천 시스템으로 사용자 참여 유지

추천 시스템 또는 추천자 시스템은 최종 사용자에게 제품, 콘텐츠 또는 서비스를 제안하는 AI 워크플로입니다. 가장 일반적인 유형의 AI 추천자 시스템은 스트리밍 및 전자 상거래 플랫폼에서 사용되는 콘텐츠 추천자입니다.

이러한 시스템은 협업 필터링과 같은 기술의 조합을 사용하여 시청할 영화 또는 TV 시리즈에 대한 특정 최종 사용자의 선호도를 추정하거나 구매할 새로운 제품을 추정합니다. 추천자 시스템은 최종 사용자가 플랫폼에 계속 참여하도록 하여 콘텐츠를 소비하는 동안 구독, 제품 구매 또는 광고를 계속 볼 수 있도록 합니다.

좋은 추천자 시스템이란?

추천 시스템의 효율성은 정확성, 응답성, 비용의 세 가지 요소에 크게 좌우됩니다.

  • 정확도 는 최종 사용자의 관심사 및 취향에 맞게 충분히 맞춤화된 추천을 만드는 것을 의미합니다. 추천자는 최종 사용자가 추천이 좋든 나쁘든 여부를 표시하여 AI 학습을 강화할 수 있는 간단한 엄지 손가락 올리기 또는 엄지 손가락 내리기와 같은 피드백 메커니즘을 통합하여 정확성을 향상시킬 수 있습니다.
  • 응답성 은 새로운 옵션을 빠르게 제시하고 사용자의 참여를 유지할 수 있는 추천자의 능력을 의미합니다. 긴 로드 시간이나 플랫폼 사용 난이도를 측정하는 것은 마찰이라고 하며, 마찰이 증가하면 더 많은 사용자가 플랫폼에서 로그아웃하거나 이탈할 수 있습니다.
  • 비용 은 지속적인 운영 비용 또는 OpEx와 균형을 이루는 추천 시스템의 초기 투자 또는 CapEx를 의미합니다. 또한 비용 효율성은 워크로드 확장을 고려하여 사용자 요구 사항을 충족하고 가동 중지 시간을 최소화하며 클라우드 환경 전반의 워크로드를 관리하는 것을 고려합니다.

추천 시스템은 누가 사용합니까?

대부분의 추천 시스템은 소비자가 직면하고 있으며 온라인 쇼핑객을 위한 제품을 추천하는 전자 상거래, 콘텐츠를 추천하고 크리에이터를 추천하는 소셜 미디어, 피드 또는 타임라인 내에서 항목을 주문하는 사용자 참여를 유도하는 콘텐츠를 권장하는 스트리밍 엔터테인먼트에서 두드러집니다. 맞춤형 뱅킹은 은행이 고객 기반을 성장시키기 위해 새로운 유형의 계정, 투자 및 기타 서비스를 추천하는 새로운 사용 사례의 예입니다.

추천 시스템 작동 방식

추천자 모델은 여러 가지 다양한 AI 모델 및 데이터 분석 워크플로의 파이프라인입니다. 이 파이프라인에는 체인 내에 최대 100개 이상의 서로 다른 프로세스가 포함되어 사용자별 통합 예측을 제공할 수 있습니다. 특정 추천자 워크플로에는 일반적으로 세 단계가 있습니다:

  • 분류: 이러한 모델은 컴퓨터 비전 및 자연어 처리(NLP)를 사용하여 콘텐츠의 요소를 분류합니다.
  • 재현율 및 유사성 검색: 이러한 프로세스는 항목 또는 객체 간에 유사한 기능의 서로 다른 카테고리를 구성합니다.
  • 순위: 추천자는 관련성에 따라 항목을 정렬합니다. 주로 Wide & Deep 또는 DLRM 딥 러닝 모델을 사용합니다.

추천 시스템에 적합한 인프라

추천 학습 및 추론 워크로드는 온프레미스 또는 클라우드의 데이터 센터 서버에서 실행되는 경우가 가장 많습니다. 추천 시스템을 설계 및 배포할 때 시스템 빌더와 솔루션 공급자가 직면하는 주요 문제는 워크로드 밀도 증가, 사용률 균형 조정, 결과 실현 시간 가속화 등이 있습니다. 소프트웨어 엔지니어는 클라우드 및 온프레미스 모두에서 효율적인 운영을 위해 코드를 최적화하는 동시에 최종 사용자에게 정확하고 관련성이 높고 빠른 결과를 반환하는 데 가장 큰 어려움을 겪습니다.

인텔은 모든 단계 및 규모의 AI 추천자를 지원합니다

이러한 추천 시스템 문제를 해결하고 엔터프라이즈 전반에서 개념부터 프로덕션까지 더 빠르게 전환하는 데 도움이 되도록 인텔은 아키텍처 이상의 기능을 제공합니다. 전 세계적으로 인텔은 추천자 시스템을 포함한 많은 숙련된 소프트웨어 개발자를 고용합니다. 또한 인텔은 하드웨어와 소프트웨어 전문 지식을 결합하여 튜닝된 플랫폼에서 AI 추천자 시스템을 최적화할 수 있으므로 드문 이점을 제공합니다.

이러한 개선 사항은 이미 전 세계 비즈니스를 위한 추천 시스템에 상당한 개선을 제공하고 있습니다:

인텔® AI 최적화로 Taboola 광고 추천 성능을 2.5배 향상한 방법 알아보기

인텔® AI 최적화로 Yahoo! Japan 쇼핑 추천을 3.5배 가속화한 방법 알아보기

개발자와 시스템 빌더는 참조 아키텍처와 PyTorch 및 TensorFlow와 같은 널리 사용되는 프레임워크의 Intel 최적화 버전을 통해 잘 이해된 성공 비법의 혜택을 누릴 수 있습니다. 기업은 빠른 배포 시간, 향상된 고객 또는 사용자 참여, 더 높은 판매 또는 광고 수익 등의 이점을 누릴 수 있습니다.

요구 사항과 컴퓨팅을 일치시키는 광범위한 추천

데이터 준비 후 AI 추천자 시스템은 모델 학습 및 배포 추론의 두 단계로 구현되며 여러 단계가 포함되어 있습니다. 아키텍처 요구 사항은 단계마다 다릅니다. 병렬화가 많을수록 모델 훈련은 더 빨라지지만, 모델 최적화는 계산량이 덜 필요합니다. 배포되면 추천자 추론은 대규모 모델과 대규모 데이터를 관리하도록 구축된 코어 수가 많은 대용량 메모리 CPU에서 효율적으로 실행됩니다.

  • 추천자 AI 모델 학습: Habana® Gaudi® 프로세서인텔® Max 시리즈 GPU 모두 빠른 AI 모델 학습 워크로드를 위한 높은 병렬화를 지원합니다.
  • 추천자 AI 모델 학습 및 추론: 인텔® 제온® 스케일러블 프로세서는 AI 학습 및 추론에 가장 적합한 CPU이며1 퍼블릭 클라우드에서 쉽게 사용할 수 있습니다.
  • 추천자 AI 가속화: 최신 세대 인텔® 제온® 스케일러블 프로세서에는 통합 인텔® AI 엔진이 탑재되어 있어 추가 하드웨어 없이 결과를 도출하는 시간을 단축할 수 있습니다. 이러한 엔진은 하드웨어 요구 사항을 낮추고 AI 성능을 높이는 데 도움이 되므로 TCO를 줄일 수 있습니다. AI 조정 가이드는 이러한 내장 AI 가속기를 활용할 수 있는 유용한 안내입니다.
  • 추천자 워크로드를 위한 통합 보안 기능: 인텔만이 메모리의 데이터를 보호하는 데 도움이 되는 인텔® Software Guard Extensions(인텔® SGX)와 같은 혁신적인 보안 기능을 제공하여 특히 멀티테넌트 클라우드 환경의 추천자 시스템을 위한 추가 보호 계층을 제공합니다. 하드웨어 계층부터 시작하는 보안 관점은 조직이 민감한 데이터와 모델을 보호하고 개인정보 보호 규정을 준수하는 데 도움이 됩니다.

엔드 투 엔드 AI 파이프라인 소프트웨어로 추천 시스템 구축

PyTorch 및 TensorFlow와 같이 널리 사용되는 AI 프레임워크의 인텔 최적화는 인텔® 아키텍처에서 재고 구현을 능가하고 학습 및 배포 시간을 단축하는 향상된 성능을 제공합니다. 개발자는 몇 줄의 코드로 이러한 강력한 도구를 배포하는 방법에 대한 지침을 보기 위해 빠른 시작 가이드에 액세스할 수 있습니다.

소매 사용 사례의 경우 인텔은 프로젝트를 시작할 수 있는 학습 데이터, 모델, 라이브러리가 포함된 추천자 참조 키트도 제공합니다. 이 키트는 인텔® 하드웨어의 머신 러닝 워크로드용 사전 조정된 소프트웨어 패키지와 결합된 성공적인 배포에 대해 학습한 내용을 반영합니다. 개발자는 GitHub에서 키트에 액세스할 수 있습니다.

또한 인텔은 여러 AI 소프트웨어 공급업체와 협력하여 인텔® 아키텍처에서 성능을 최적화합니다. 로우 터치 솔루션의 경우 Hugging Face의 인텔 프로필 또는 인텔® 솔루션 마켓플레이스를 방문하십시오.

인텔과 함께 어디서나 AI 추천 시스템 제공

인텔은 AI 추천자 시스템 설계 및 개발 작업을 위한 혁신을 가속화하는 데 도움이 되는 커뮤니티 허브 및 업계 리더십을 제공합니다. 코드 및 최적화에 액세스하고 AI 배포의 성공을 보장하는 데 도움이 되는 주요 기능을 갖춘 관련 하드웨어 솔루션에 대한 팁을 얻으십시오.

리소스, 소프트웨어, 교육, 토론으로 가득한 커뮤니티인 인텔® 개발자 존에 가입

온라인 샌드박스에서 인텔® 하드웨어 솔루션의 전체 포트폴리오에 걸친 AI 성능 테스트 및 측정

FAQ

자주 묻는 질문

추천 시스템은 최종 사용자가 관심이 있을 수 있는 콘텐츠, 제품 또는 서비스에 대한 맞춤형 제안을 제공하는 AI 지원 응용 프로그램입니다. 효과적인 추천자는 정확하고 적절한 제안을 제공하며 응답성이 뛰어나고 빠르며 비용 효율적입니다.

추천 시스템은 여러 AI 모델의 체인을 사용하여 여러 데이터 세트에서 분류, 재현 및 순위 지정을 수행하여 각 최종 사용자에 대해 개인화된 결과를 제공합니다. 하나의 시스템은 최대 100개 이상의 서로 다른 모델을 사용할 수 있습니다.