Indholdsfortegnelse:

Hvordan betjener du en TensorFlow-model?
Hvordan betjener du en TensorFlow-model?

Video: Hvordan betjener du en TensorFlow-model?

Video: Hvordan betjener du en TensorFlow-model?
Video: #9. Введение в модели и слои бэкэнда Keras | Tensorflow 2 уроки 2024, Kan
Anonim

For at tjene en Tensorflow-model , skal du blot eksportere en SavedModel fra din Tensorflow program. SavedModel er et sprogneutralt, gendanbart, hermetisk serialiseringsformat, der gør det muligt for systemer og værktøjer på højere niveau at producere, forbruge og transformere TensorFlow modeller.

Derfor, hvordan kører jeg en TensorFlow-model?

Disse trin skal vi gøre:

  1. Lav en dum model som eksempel, træne og opbevar den.
  2. Hent de variabler, du har brug for, fra din gemte model.
  3. Byg tensorinformationen ud fra dem.
  4. Opret modelsignaturen.
  5. Opret og gem en modelbygger.
  6. Download et Docker-billede med TensorFlow-servering allerede kompileret på det.

Derudover, hvad serverer TensorFlow? TensorFlow-servering er en fleksibel, højtydende betjener system til maskinlæringsmodeller, designet til produktionsmiljøer. TensorFlow-servering giver out-of-the-box integration med TensorFlow modeller, men kan nemt udvides til tjene andre typer modeller og data.

Hvad angår dette, hvordan fungerer TensorFlow-serveren?

TensorFlow-servering giver os mulighed for at vælge, hvilken version af en model eller "serverbar" vi vil bruge, når vi foretager slutningsanmodninger. Hver version vil blive eksporteret til en anden undermappe under den givne sti.

Hvad er en modelserver?

Model server til Apache MXNet (MMS) er en open source-komponent, der er designet til at forenkle opgaven med at implementere deep learning modeller til slutning i skala. Udruller modeller for slutning er ikke en triviel opgave.

Anbefalede: