Apakah mungkin untuk meminta prediksi menggunakan REST di OpenVINO™ Model Server?
Jenis Konten: Kompatibilitas | ID Artikel: 000098156 | Terakhir Ditinjau: 21/03/2024
Tidak dapat meminta prediksi menggunakan REST di OpenVINO™ Model Server.
Gunakan kode berikut untuk meminta prediksi menggunakan REST di OpenVINO™ Model Server:
from ovmsclient import make_http_client
client = make_http_client("localhost:8000")
with open("img.jpeg", "rb") as f:
data = f.read()
inputs = {"input_name": data}
results = client.predict(inputs=inputs, model_name="my_model")
Lihat TensorFlow* Serving API.