문서 ID: 000057722 콘텐츠 형태: 유지 관리 및 성능 마지막 검토일: 2023-08-14

비전 프로세싱 유닛(VPU)에서 모델을 로딩하는 것이 CPU에서 로딩하는 것보다 시간이 더 오래 걸릴 수 있습니다

환경

OpenVINO™ 툴킷 2019 R3 이상

BUILT IN - ARTICLE INTRO SECOND COMPONENT
요약

VPU(Vision Processing Unit)에서 모델 로드 시간을 줄이는 빠른 단계

설명
  • 비전 프로세싱 유닛(VPU)에 모델을 로드하는 시간은 CPU에 모델을 로드하는 시간보다 깁니다.
  • Python API를 사용하는 코드: net = ie.read_network(model=path_to_xml, weights=path_to_bin) exec_net = ie.load_network(network=net, device_name="CPU") res = exec_net.infer(inputs=data)
해결 방법

로드 시간을 줄이려면 구문 분석된 그래프인 Blob에서 모델을 로드 하여 모델 구문 분석 단계를 건너뜁니다.

  1. 다음 방법 중 하나를 사용하여 로드하기 전에 Blob 파일을 미리 생성합니다.
    • 명령줄에서 myriad_compile 도구를 사용하여 Blob을 생성합니다.
      1. 미리 컴파일된 도구는 OpenVINO™ 툴킷의 인텔® 배포에서 사용할 수 있습니다. 오픈 소스 OpenVINO 도구 키트 리포지토리를 복제하고 빌드할 수도 있습니다.
      2. 생성 Blob.
        경로 inference-engine/bin/intel64/Release에서 다음과 같이 명령을 실행합니다./myriad_compile -m <model_name>.xml -o <output filename>
  2. 추론 엔진 코어 API를 사용하여 코드에서 Blob 가져오기: executable_network = ie.ImportNetwork(“model_name.blob”, device, config)
추가 정보

VPU에서 모델을 로드할 때 두 가지 내부 프로세스가 있습니다.

  1. 그래프 구문 분석
  2. 그래프 할당

로딩 프로세스 중에 구문 분석된 VPU 그래프는 호스트의 xlink에 의해 단계별로 하드웨어로 전송됩니다.

Blob에서 모델을 로드하면 일부 모델의 경우 많은 시간을 줄일 수 있지만 모든 모델에서 작동하지 않을 수 있습니다.

모델 크기 외에도 로딩 시간은 레이어 유형, 입력 데이터 크기 등에 따라 달라집니다.

HDDL 플러그인은 Blob에서 모델을 로드할 때 MYRIAD 플러그인보다 더 효율적입니다.

인텔® 뉴럴 컴퓨트 스틱 2에서 MYRIAD 플러그 인 대신 HDDL 플러그 인을 사용하도록 설정하려면 다음 단계를 따르십시오.

  1. autoboot_settings:abort_if_hw_reset_failed to false in $HDDL_INSTALL_DIR/config/hddl_autoboot.config. 설정
  2. autoboot_settings:total_device_num to 1. 설정
  3. hddldaemon. 시작

관련 제품

이 문서는 다음 항목에 적용됩니다. 2 제품

이 페이지의 콘텐츠는 원본 영어 콘텐츠에 대한 사람 번역 및 컴퓨터 번역의 조합으로 완성되었습니다. 이 콘텐츠는 편의와 일반적인 정보 제공을 위해서만 제공되었으며, 완전하거나 정확한 것으로 간주되어선 안 됩니다. 이 페이지의 영어 버전과 번역 간 모순이 있는 경우, 영어 버전이 우선적으로 적용됩니다. 이 페이지의 영어 버전을 확인하십시오.