ID Artikel: 000088387 Jenis Konten: Kompatibilitas Terakhir Ditinjau: 20/05/2022

Mengapa Model Caffe Dapat Digunakan Secara Langsung dengan OPENVINO™ Toolkit Inference Engine API?

BUILT IN - ARTICLE INTRO SECOND COMPONENT
Ringkasan

Kerangka kerja yang didukung untuk OpenVINO™ Toolkit Inference Engine API

Deskripsi
  • Model Caffe inferensi langsung pada Intel® Neural Compute Stick 2 (Intel® NCS2).
  • Tidak dapat menentukan mengapa model Caffe dapat digunakan secara langsung dengan OpenVINO™ Toolkit Inference Engine API tanpa mengonversi ke Intermediate Representation (IR).
Resolusi

Hanya kerangka kerja Caffe terbatas yang dapat digunakan secara langsung dengan OpenVINO™ Toolkit Inference Engine API.

Saat ini, kerangka kerja yang didukung oleh OpenVINO™ Toolkit Inference Engine API adalah:

  • Representasi Menengah (IR)
  • ONNX

Produk Terkait

Artikel ini berlaku untuk 2 produk

Isi halaman ini adalah kombinasi terjemahan manusia dan komputer dari konten berbahasa Inggris. Konten ini diberikan hanya untuk kenyamanan Anda serta sebagai informasi umum dan tidak bisa dianggap sebagai lengkap atau akurat. Jika terdapat kontradiksi antara versi bahasa Inggris halaman ini dan terjemahannya, versi bahasa Inggris akan didahulukan. Lihat versi bahasa Inggris halaman ini.