Cuprins:

Cum serviți un model TensorFlow?
Cum serviți un model TensorFlow?

Video: Cum serviți un model TensorFlow?

Video: Cum serviți un model TensorFlow?
Video: tf serving tutorial | tensorflow serving tutorial | Deep Learning Tutorial 48 (Tensorflow, Python) 2024, Mai
Anonim

Pentru a servi un model Tensorflow , pur și simplu exportați un SavedModel din dvs Tensorflow program. SavedModel este un format de serializare ermetic, neutru din punct de vedere al limbajului, care permite sistemelor și instrumentelor de nivel superior să producă, să consume și să transforme Modele TensorFlow.

În consecință, cum rulez un model TensorFlow?

Aceștia sunt pașii pe care îi vom face:

  1. Faceți un model stupid ca exemplu, antrenați-l și depozitați-l.
  2. Preluați variabilele de care aveți nevoie din modelul stocat.
  3. Construiți informațiile tensorului din ei.
  4. Creați semnătura modelului.
  5. Creați și salvați un constructor de modele.
  6. Descărcați o imagine Docker cu TensorFlow servind deja compilată pe ea.

În plus, ce servește TensorFlow? Servire TensorFlow este un flexibil, de înaltă performanță servire sistem pentru modele de învățare automată, conceput pentru medii de producție. Servire TensorFlow oferă o integrare gata de utilizare cu TensorFlow modele, dar poate fi ușor extins la servi alte tipuri de modele și date.

În acest sens, cum funcționează serviciul TensorFlow?

Servire TensorFlow ne permite să selectăm ce versiune a unui model sau „servibil” dorim să folosim atunci când facem cereri de inferență. Fiecare versiune va fi exportată într-un subdirector diferit sub calea dată.

Ce este un server model?

Model Server pentru Apache MXNet (MMS) este o componentă open source care este concepută pentru a simplifica sarcina de implementare a învățării profunde modele pentru inferență la scară. Desfășurare modele pentru că deducerea nu este o sarcină banală.

Recomandat: