Dzień Społeczności ML jest 9 listopada! Dołącz do nas na aktualizacje z TensorFlow Jax i więcej Dowiedz się więcej

Migracja przepływu pracy SavedModel

Zobacz na TensorFlow.org Uruchom w Google Colab Wyświetl źródło na GitHub Pobierz notatnik

Po przeprowadzeniu migracji model z TensorFlow 1 na wykresach i sesji do TensorFlow 2 interfejsy API, takie jak tf.function , tf.Module i tf.keras.Model można migrować oszczędność modelu i kodu ładowania. Ten notatnik zawiera przykłady, w jaki sposób można zapisywać i ładować w formacie SavedModel w TensorFlow 1 i TensorFlow 2. Oto krótki przegląd powiązanych zmian API dotyczących migracji z TensorFlow 1 do TensorFlow 2:

Przepływ Tensora 1 Migracja do TensorFlow 2
Oszczędność tf.compat.v1.saved_model.Builder
tf.compat.v1.saved_model.simple_save
tf.saved_model.save
Keras: tf.keras.models.save_model
Ładowanie tf.compat.v1.saved_model.load tf.saved_model.load
Keras: tf.keras.models.load_model
Podpisy: zestaw wejścia
i tensory wyjściowe, które
może być używany do uruchamiania
Generowana przy użyciu *.signature_def utils
(np tf.compat.v1.saved_model.predict_signature_def )
Napisz tf.function i eksportować je za pomocą signatures argumentu
w tf.saved_model.save .
Klasyfikacja
i regresja:

specjalne rodzaje podpisów
Wygenerowano za pomocą
tf.compat.v1.saved_model.classification_signature_def ,
tf.compat.v1.saved_model.regression_signature_def ,
oraz niektóre eksporty estymatora.
Te dwa typy podpisów zostały usunięte z TensorFlow 2.
Jeśli biblioteka obsługująca wymaga tych nazw metod,
tf.compat.v1.saved_model.signature_def_utils.MethodNameUpdater .

Dla wyjaśnienia bardziej dogłębnej mapowania, odnoszą się do zmian z TensorFlow 1 do TensorFlow 2 sekcji poniżej.

Ustawiać

Poniższe przykłady pokazują, jak wyeksportować i załadować ten sam model manekina TensorFlow (definiowane jako add_two poniżej) do formatu SavedModel używając TensorFlow 1 i 2 TensorFlow API. Zacznij od skonfigurowania funkcji importu i narzędzi:

import tensorflow as tf
import tensorflow.compat.v1 as tf1
import shutil

def remove_dir(path):
  try:
    shutil.rmtree(path)
  except:
    pass

def add_two(input):
  return input + 2

TensorFlow 1: Zapisz i wyeksportuj SavedModel

W TensorFlow 1, użyć tf.compat.v1.saved_model.Builder , tf.compat.v1.saved_model.simple_save i tf.estimator.Estimator.export_saved_model API budować, zapisywać i eksportować wykres TensorFlow i sesji:

1. Zapisz wykres jako SavedModel za pomocą SavedModelBuilder

remove_dir("saved-model-builder")

with tf.Graph().as_default() as g:
  with tf1.Session() as sess:
    input = tf1.placeholder(tf.float32, shape=[])
    output = add_two(input)
    print("add two output: ", sess.run(output, {input: 3.}))

    # Save with SavedModelBuilder
    builder = tf1.saved_model.Builder('saved-model-builder')
    sig_def = tf1.saved_model.predict_signature_def(
        inputs={'input': input},
        outputs={'output': output})
    builder.add_meta_graph_and_variables(
        sess, tags=["serve"], signature_def_map={
            tf.saved_model.DEFAULT_SERVING_SIGNATURE_DEF_KEY: sig_def
    })
    builder.save()
add two output:  5.0
WARNING:tensorflow:From /tmpfs/src/tf_docs_env/lib/python3.7/site-packages/tensorflow/python/saved_model/signature_def_utils_impl.py:201: build_tensor_info (from tensorflow.python.saved_model.utils_impl) is deprecated and will be removed in a future version.
Instructions for updating:
This function will only be available through the v1 compatibility library as tf.compat.v1.saved_model.utils.build_tensor_info or tf.compat.v1.saved_model.build_tensor_info.
INFO:tensorflow:No assets to save.
INFO:tensorflow:No assets to write.
INFO:tensorflow:SavedModel written to: saved-model-builder/saved_model.pb
!saved_model_cli run --dir simple-save --tag_set serve \
 --signature_def serving_default --input_exprs input=10
Traceback (most recent call last):
  File "/tmpfs/src/tf_docs_env/bin/saved_model_cli", line 8, in <module>
    sys.exit(main())
  File "/tmpfs/src/tf_docs_env/lib/python3.7/site-packages/tensorflow/python/tools/saved_model_cli.py", line 1192, in main
    args.func(args)
  File "/tmpfs/src/tf_docs_env/lib/python3.7/site-packages/tensorflow/python/tools/saved_model_cli.py", line 752, in run
    init_tpu=args.init_tpu, tf_debug=args.tf_debug)
  File "/tmpfs/src/tf_docs_env/lib/python3.7/site-packages/tensorflow/python/tools/saved_model_cli.py", line 409, in run_saved_model_with_feed_dict
    tag_set)
  File "/tmpfs/src/tf_docs_env/lib/python3.7/site-packages/tensorflow/python/tools/saved_model_utils.py", line 117, in get_meta_graph_def
    saved_model = read_saved_model(saved_model_dir)
  File "/tmpfs/src/tf_docs_env/lib/python3.7/site-packages/tensorflow/python/tools/saved_model_utils.py", line 55, in read_saved_model
    raise IOError("SavedModel file does not exist at: %s" % saved_model_dir)
OSError: SavedModel file does not exist at: simple-save

2. Zbuduj SavedModel do serwowania

remove_dir("simple-save")

with tf.Graph().as_default() as g:
  with tf1.Session() as sess:
    input = tf1.placeholder(tf.float32, shape=[])
    output = add_two(input)
    print("add_two output: ", sess.run(output, {input: 3.}))

    tf1.saved_model.simple_save(
        sess, 'simple-save',
        inputs={'input': input},
        outputs={'output': output})
add_two output:  5.0
WARNING:tensorflow:From /tmp/ipykernel_14881/250978412.py:12: simple_save (from tensorflow.python.saved_model.simple_save) is deprecated and will be removed in a future version.
Instructions for updating:
This function will only be available through the v1 compatibility library as tf.compat.v1.saved_model.simple_save.
INFO:tensorflow:Assets added to graph.
INFO:tensorflow:No assets to write.
INFO:tensorflow:SavedModel written to: simple-save/saved_model.pb
!saved_model_cli run --dir simple-save --tag_set serve \
 --signature_def serving_default --input_exprs input=10
WARNING:tensorflow:From /tmpfs/src/tf_docs_env/lib/python3.7/site-packages/tensorflow/python/tools/saved_model_cli.py:445: load (from tensorflow.python.saved_model.loader_impl) is deprecated and will be removed in a future version.
Instructions for updating:
This function will only be available through the v1 compatibility library as tf.compat.v1.saved_model.loader.load or tf.compat.v1.saved_model.load. There will be a new function for importing SavedModels in Tensorflow 2.0.
INFO:tensorflow:Saver not created because there are no variables in the graph to restore
INFO:tensorflow:The specified SavedModel has no variables; no checkpoints were restored.
Result for output key output:
12.0

3. Eksportuj wykres wnioskowania estymatora jako SavedModel

W definicji estymatora model_fn (zdefiniowanego poniżej), można zdefiniować podpisów w modelu wracając export_outputs w tf.estimator.EstimatorSpec . Istnieją różne rodzaje wyjść:

Wygenerują one odpowiednio typy klasyfikacji, regresji i predykcji.

Gdy Estymator jest eksportowany z tf.estimator.Estimator.export_saved_model te podpisy zostaną zachowane przy modelu.

def model_fn(features, labels, mode):
  output = add_two(features['input'])
  step = tf1.train.get_global_step()
  return tf.estimator.EstimatorSpec(
      mode,
      predictions=output,
      train_op=step.assign_add(1),
      loss=tf.constant(0.),
      export_outputs={
          tf.saved_model.DEFAULT_SERVING_SIGNATURE_DEF_KEY: \
          tf.estimator.export.PredictOutput({'output': output})})
est = tf.estimator.Estimator(model_fn, 'estimator-checkpoints')

# Train for one step to create a checkpoint.
def train_fn():
  return tf.data.Dataset.from_tensors({'input': 3.})
est.train(train_fn, steps=1)

# This utility function `build_raw_serving_input_receiver_fn` takes in raw
# tensor features and builds an "input serving receiver function", which
# creates placeholder inputs to the model.
serving_input_fn = tf.estimator.export.build_raw_serving_input_receiver_fn(
    {'input': tf.constant(3.)})  # Pass in a dummy input batch.
estimator_path = est.export_saved_model('exported-estimator', serving_input_fn)

# Estimator's export_saved_model creates a time stamped directory. Move this
# to a set path so it can be inspected with `saved_model_cli` in the cell below.
!rm -rf estimator-model
import shutil
shutil.move(estimator_path, 'estimator-model')
INFO:tensorflow:Using default config.
INFO:tensorflow:Using config: {'_model_dir': 'estimator-checkpoints', '_tf_random_seed': None, '_save_summary_steps': 100, '_save_checkpoints_steps': None, '_save_checkpoints_secs': 600, '_session_config': allow_soft_placement: true
graph_options {
  rewrite_options {
    meta_optimizer_iterations: ONE
  }
}
, '_keep_checkpoint_max': 5, '_keep_checkpoint_every_n_hours': 10000, '_log_step_count_steps': 100, '_train_distribute': None, '_device_fn': None, '_protocol': None, '_eval_distribute': None, '_experimental_distribute': None, '_experimental_max_worker_delay_secs': None, '_session_creation_timeout_secs': 7200, '_checkpoint_save_graph_def': True, '_service': None, '_cluster_spec': ClusterSpec({}), '_task_type': 'worker', '_task_id': 0, '_global_id_in_cluster': 0, '_master': '', '_evaluation_master': '', '_is_chief': True, '_num_ps_replicas': 0, '_num_worker_replicas': 1}
WARNING:tensorflow:From /tmpfs/src/tf_docs_env/lib/python3.7/site-packages/tensorflow/python/training/training_util.py:236: Variable.initialized_value (from tensorflow.python.ops.variables) is deprecated and will be removed in a future version.
Instructions for updating:
Use Variable.read_value. Variables in 2.X are initialized automatically both in eager and graph (inside tf.defun) contexts.
INFO:tensorflow:Calling model_fn.
INFO:tensorflow:Done calling model_fn.
INFO:tensorflow:Create CheckpointSaverHook.
INFO:tensorflow:Graph was finalized.
INFO:tensorflow:Running local_init_op.
INFO:tensorflow:Done running local_init_op.
INFO:tensorflow:Calling checkpoint listeners before saving checkpoint 0...
INFO:tensorflow:Saving checkpoints for 0 into estimator-checkpoints/model.ckpt.
INFO:tensorflow:Calling checkpoint listeners after saving checkpoint 0...
INFO:tensorflow:loss = 0.0, step = 1
INFO:tensorflow:Calling checkpoint listeners before saving checkpoint 1...
INFO:tensorflow:Saving checkpoints for 1 into estimator-checkpoints/model.ckpt.
INFO:tensorflow:Calling checkpoint listeners after saving checkpoint 1...
INFO:tensorflow:Loss for final step: 0.0.
INFO:tensorflow:Calling model_fn.
INFO:tensorflow:Done calling model_fn.
INFO:tensorflow:Signatures INCLUDED in export for Classify: None
INFO:tensorflow:Signatures INCLUDED in export for Regress: None
INFO:tensorflow:Signatures INCLUDED in export for Predict: ['serving_default']
INFO:tensorflow:Signatures INCLUDED in export for Train: None
INFO:tensorflow:Signatures INCLUDED in export for Eval: None
INFO:tensorflow:Restoring parameters from estimator-checkpoints/model.ckpt-1
INFO:tensorflow:Assets added to graph.
INFO:tensorflow:No assets to write.
INFO:tensorflow:SavedModel written to: exported-estimator/temp-1632341678/saved_model.pb
'estimator-model'
!saved_model_cli run --dir estimator-model --tag_set serve \
 --signature_def serving_default --input_exprs input=[10]
WARNING:tensorflow:From /tmpfs/src/tf_docs_env/lib/python3.7/site-packages/tensorflow/python/tools/saved_model_cli.py:445: load (from tensorflow.python.saved_model.loader_impl) is deprecated and will be removed in a future version.
Instructions for updating:
This function will only be available through the v1 compatibility library as tf.compat.v1.saved_model.loader.load or tf.compat.v1.saved_model.load. There will be a new function for importing SavedModels in Tensorflow 2.0.
INFO:tensorflow:Restoring parameters from estimator-model/variables/variables
Result for output key output:
[12.]

TensorFlow 2: Zapisz i wyeksportuj SavedModel

Zapisz i wyeksportuj SavedModel zdefiniowany za pomocą tf.Module

Aby wyeksportować swój model w TensorFlow 2, należy zdefiniować tf.Module lub tf.keras.Model do przechowywania wszystkich zmiennych i funkcji Twojego modelu. Następnie można wywołać tf.saved_model.save stworzyć SavedModel. Patrz Zapisywanie niestandardowego modelu w użyciu formatu SavedModel instrukcji, aby dowiedzieć się więcej.

class MyModel(tf.Module):
  @tf.function
  def __call__(self, input):
    return add_two(input)

model = MyModel()

@tf.function
def serving_default(input):
  return {'output': model(input)}

signature_function = serving_default.get_concrete_function(
    tf.TensorSpec(shape=[], dtype=tf.float32))
tf.saved_model.save(
    model, 'tf2-save', signatures={
        tf.saved_model.DEFAULT_SERVING_SIGNATURE_DEF_KEY: signature_function})
INFO:tensorflow:Assets written to: tf2-save/assets
2021-09-22 20:14:41.714399: W tensorflow/python/util/util.cc:348] Sets are not currently considered sequences, but this may change in the future, so consider avoiding using them.
!saved_model_cli run --dir tf2-save --tag_set serve \
 --signature_def serving_default --input_exprs input=10
WARNING:tensorflow:From /tmpfs/src/tf_docs_env/lib/python3.7/site-packages/tensorflow/python/tools/saved_model_cli.py:445: load (from tensorflow.python.saved_model.loader_impl) is deprecated and will be removed in a future version.
Instructions for updating:
This function will only be available through the v1 compatibility library as tf.compat.v1.saved_model.loader.load or tf.compat.v1.saved_model.load. There will be a new function for importing SavedModels in Tensorflow 2.0.
INFO:tensorflow:Restoring parameters from tf2-save/variables/variables
Result for output key output:
12.0

Zapisz i wyeksportuj SavedModel zdefiniowany w Keras

W Keras API do zapisywania i exporting- Mode.save lub tf.keras.models.save_model -Można eksportować SavedModel z tf.keras.Model . Sprawdź Zapisz i załadować modele Keras więcej szczegółów.

inp = tf.keras.Input(3)
out = add_two(inp)
model = tf.keras.Model(inputs=inp, outputs=out)

@tf.function(input_signature=[tf.TensorSpec(shape=[], dtype=tf.float32)])
def serving_default(input):
  return {'output': model(input)}

model.save('keras-model', save_format='tf', signatures={
        tf.saved_model.DEFAULT_SERVING_SIGNATURE_DEF_KEY: serving_default})
WARNING:tensorflow:Compiled the loaded model, but the compiled metrics have yet to be built. `model.compile_metrics` will be empty until you train or evaluate the model.
WARNING:tensorflow:Model was constructed with shape (None, 3) for input KerasTensor(type_spec=TensorSpec(shape=(None, 3), dtype=tf.float32, name='input_1'), name='input_1', description="created by layer 'input_1'"), but it was called on an input with incompatible shape ().
INFO:tensorflow:Assets written to: keras-model/assets
!saved_model_cli run --dir keras-model --tag_set serve \
 --signature_def serving_default --input_exprs input=10
WARNING:tensorflow:From /tmpfs/src/tf_docs_env/lib/python3.7/site-packages/tensorflow/python/tools/saved_model_cli.py:445: load (from tensorflow.python.saved_model.loader_impl) is deprecated and will be removed in a future version.
Instructions for updating:
This function will only be available through the v1 compatibility library as tf.compat.v1.saved_model.loader.load or tf.compat.v1.saved_model.load. There will be a new function for importing SavedModels in Tensorflow 2.0.
INFO:tensorflow:Restoring parameters from keras-model/variables/variables
Result for output key output:
12.0

Ładowanie zapisanego modelu

SavedModel zapisany za pomocą dowolnego z powyższych interfejsów API można załadować za pomocą interfejsów API TensorFlow 1 lub TensorFlow.

TensorFlow 1 SavedModel może być wykorzystywany do wnioskowania, kiedy załadowany do TensorFlow 2, ale (gradienty generujące) szkolenie jest możliwe tylko wtedy, gdy SavedModel zawiera zmienne zasobów. Możesz sprawdzić dtype zmiennych — jeśli zmienna dtype zawiera "_ref", to jest to zmienna referencyjna.

TensorFlow 2 SavedModel można załadować i wykonać z TensorFlow 1, o ile SavedModel jest zapisany z podpisami.

Poniższe sekcje zawierają przykłady kodu pokazujące, jak załadować SavedModels zapisane w poprzednich sekcjach i wywołać wyeksportowany podpis.

TensorFlow 1: Załaduj SavedModel za pomocą tf.saved_model.load

W TensorFlow 1, można importować SavedModel bezpośrednio do bieżącego wykresu i sesja z wykorzystaniem tf.saved_model.load . Można zadzwonić Session.run na nazwach tensor wejściowych i wyjściowych:

def load_tf1(path, input):
  print('Loading from', path)
  with tf.Graph().as_default() as g:
    with tf1.Session() as sess:
      meta_graph = tf1.saved_model.load(sess, ["serve"], path)
      sig_def = meta_graph.signature_def[tf.saved_model.DEFAULT_SERVING_SIGNATURE_DEF_KEY]
      input_name = sig_def.inputs['input'].name
      output_name = sig_def.outputs['output'].name
      print('  Output with input', input, ': ', 
            sess.run(output_name, feed_dict={input_name: input}))

load_tf1('saved-model-builder', 5.)
load_tf1('simple-save', 5.)
load_tf1('estimator-model', [5.])  # Estimator's input must be batched.
load_tf1('tf2-save', 5.)
load_tf1('keras-model', 5.)
Loading from saved-model-builder
WARNING:tensorflow:From /tmp/ipykernel_14881/1548963983.py:5: load (from tensorflow.python.saved_model.loader_impl) is deprecated and will be removed in a future version.
Instructions for updating:
This function will only be available through the v1 compatibility library as tf.compat.v1.saved_model.loader.load or tf.compat.v1.saved_model.load. There will be a new function for importing SavedModels in Tensorflow 2.0.
INFO:tensorflow:Saver not created because there are no variables in the graph to restore
INFO:tensorflow:The specified SavedModel has no variables; no checkpoints were restored.
  Output with input 5.0 :  7.0
Loading from simple-save
INFO:tensorflow:Saver not created because there are no variables in the graph to restore
INFO:tensorflow:The specified SavedModel has no variables; no checkpoints were restored.
  Output with input 5.0 :  7.0
Loading from estimator-model
INFO:tensorflow:Restoring parameters from estimator-model/variables/variables
  Output with input [5.0] :  [7.]
Loading from tf2-save
INFO:tensorflow:Restoring parameters from tf2-save/variables/variables
  Output with input 5.0 :  7.0
Loading from keras-model
INFO:tensorflow:Restoring parameters from keras-model/variables/variables
  Output with input 5.0 :  7.0

TensorFlow 2: Załaduj model zapisany za pomocą tf.saved_model

W TensorFlow 2 obiekty są ładowane do obiektu Pythona, który przechowuje zmienne i funkcje. Jest to zgodne z modelami zapisanymi z TensorFlow 1.

Sprawdź tf.saved_model.load docs API i Ładowanie i używanie niestandardowych modelu sekcję z wykorzystaniem formatu SavedModel Guide.

def load_tf2(path, input):
  print('Loading from', path)
  loaded = tf.saved_model.load(path)
  out = loaded.signatures[tf.saved_model.DEFAULT_SERVING_SIGNATURE_DEF_KEY](
      tf.constant(input))['output']
  print('  Output with input', input, ': ', out)

load_tf2('saved-model-builder', 5.)
load_tf2('simple-save', 5.)
load_tf2('estimator-model', [5.])  # Estimator's input must be batched.
load_tf2('tf2-save', 5.)
load_tf2('keras-model', 5.)
Loading from saved-model-builder
INFO:tensorflow:Saver not created because there are no variables in the graph to restore
  Output with input 5.0 :  tf.Tensor(7.0, shape=(), dtype=float32)
Loading from simple-save
INFO:tensorflow:Saver not created because there are no variables in the graph to restore
  Output with input 5.0 :  tf.Tensor(7.0, shape=(), dtype=float32)
Loading from estimator-model
  Output with input [5.0] :  tf.Tensor([7.], shape=(1,), dtype=float32)
Loading from tf2-save
  Output with input 5.0 :  tf.Tensor(7.0, shape=(), dtype=float32)
Loading from keras-model
  Output with input 5.0 :  tf.Tensor(7.0, shape=(), dtype=float32)

Modele zapisane z TensorFlow 2 API mogą również uzyskać dostęp tf.function S i zmienne, które są dołączone do modelu (zamiast tych eksportowane jako podpisów). Na przykład:

loaded = tf.saved_model.load('tf2-save')
print('restored __call__:', loaded.__call__)
print('output with input 5.', loaded(5))
restored __call__: <tensorflow.python.saved_model.function_deserialization.RestoredFunction object at 0x7f0714ed3f50>
output with input 5. tf.Tensor(7.0, shape=(), dtype=float32)

TensorFlow 2: Załaduj model zapisany za pomocą Keras

Keras loading API- tf.keras.models.load_model -allows do przeładować zapisanego modelu z powrotem do obiektu Keras Model. Należy pamiętać, że to tylko pozwala SavedModels obciążenia zapisanych z Keras ( Model.save lub tf.keras.models.save_model ).

Modele zapisane z tf.saved_model.save powinny być ładowane z tf.saved_model.load . Można załadować model Keras zapisany z Model.save użyciu tf.saved_model.load ale dostaniesz tylko wykres TensorFlow. Odnoszą się do tf.keras.models.load_model docs API oraz zapisywania i ładowania modeli Keras Guide.

loaded_model = tf.keras.models.load_model('keras-model')
loaded_model.predict_on_batch(tf.constant([1, 3, 4]))
WARNING:tensorflow:No training configuration found in save file, so the model was *not* compiled. Compile it manually.
WARNING:tensorflow:Model was constructed with shape (None, 3) for input KerasTensor(type_spec=TensorSpec(shape=(None, 3), dtype=tf.float32, name='input_1'), name='input_1', description="created by layer 'input_1'"), but it was called on an input with incompatible shape (3, 1).
array([[3.],
       [5.],
       [6.]], dtype=float32)

GraphDef i MetaGraphDef

Nie ma prosty sposób załadować surową GraphDef lub MetaGraphDef do TF2. Jednakże, można konwertować kod TF1, że przywóz na wykresie w TF2 concrete_function korzystając v1.wrap_function .

Najpierw zapisz MetaGraphDef:

# Save a simple multiplication computation:
with tf.Graph().as_default() as g:
  x = tf1.placeholder(tf.float32, shape=[], name='x')
  v = tf.Variable(3.0, name='v')
  y = tf.multiply(x, v, name='y')
  with tf1.Session() as sess:
    sess.run(v.initializer)
    print(sess.run(y, feed_dict={x: 5}))
    s = tf1.train.Saver()
    s.export_meta_graph('multiply.pb', as_text=True)
    s.save(sess, 'multiply_values.ckpt')
15.0

Korzystanie z API TF1, można użyć tf1.train.import_meta_graph importować wykresu i przywrócić wartości:

with tf.Graph().as_default() as g:
  meta = tf1.train.import_meta_graph('multiply.pb')
  x = g.get_tensor_by_name('x:0')
  y = g.get_tensor_by_name('y:0')
  with tf1.Session() as sess:
    meta.restore(sess, 'multiply_values.ckpt')
    print(sess.run(y, feed_dict={x: 5}))
INFO:tensorflow:Restoring parameters from multiply_values.ckpt
15.0

Nie ma interfejsów API TF2 do ładowania wykresu, ale nadal można go zaimportować do konkretnej funkcji, którą można wykonać w trybie przyspieszonym:

def import_multiply():
  # Any graph-building code is allowed here.
  tf1.train.import_meta_graph('multiply.pb')

# Creates a tf.function with all the imported elements in the function graph.
wrapped_import = tf1.wrap_function(import_multiply, [])
import_graph = wrapped_import.graph
x = import_graph.get_tensor_by_name('x:0')
y = import_graph.get_tensor_by_name('y:0')

# Restore the variable values.
tf1.train.Saver(wrapped_import.variables).restore(
    sess=None, save_path='multiply_values.ckpt')

# Create a concrete function by pruning the wrap_function (similar to sess.run).
multiply_fn = wrapped_import.prune(feeds=x, fetches=y)

# Run this function
multiply_fn(tf.constant(5.))  # inputs to concrete functions must be Tensors.
WARNING:tensorflow:Saver is deprecated, please switch to tf.train.Checkpoint or tf.keras.Model.save_weights for training checkpoints. When executing eagerly variables do not necessarily have unique names, and so the variable.name-based lookups Saver performs are error-prone.
INFO:tensorflow:Restoring parameters from multiply_values.ckpt
<tf.Tensor: shape=(), dtype=float32, numpy=15.0>

Zmiany z TensorFlow 1 na TensorFlow 2

Ta sekcja zawiera listę kluczowych terminów zapisywania i ładowania z TensorFlow 1, ich odpowiedników w TensorFlow 2 oraz tego, co się zmieniło.

Zapisany model

SavedModel to format, który przechowuje kompletny program TensorFlow z parametrów i obliczeń. Zawiera sygnatury używane przez platformy obsługujące do uruchamiania modelu.

Sam format pliku nie zmienił się znacząco, więc SavedModels można ładować i udostępniać za pomocą interfejsów API TensorFlow 1 lub TensorFlow 2.

Różnice między TensorFlow 1 i TensorFlow 2

Obsługujący i wnioskowania przypadki użycia nie zostały zaktualizowane w TensorFlow 2, oprócz zmiany-API poprawa została wprowadzona w zdolności do ponownego użycia i modeli złożeń załadowanego z SavedModel.

W TensorFlow 2, program jest reprezentowane przez przedmioty, takie jak tf.Variable , tf.Module lub wyższego rzędu modelu Keras ( tf.keras.Model ) i warstw ( tf.keras.layers ). Brak bardziej zmienne globalne, które mają wartości przechowywane w sesji, a wykres istnieje teraz w inny tf.function s. W konsekwencji, podczas eksportu modelu, SavedModel zapisuje osobno wykresy każdego komponentu i funkcji.

Kiedy piszesz program TensorFlow z interfejsami API TensorFlow Python, musisz zbudować obiekt do zarządzania zmiennymi, funkcjami i innymi zasobami. Ogólnie rzecz biorąc, jest to realizowane za pomocą Keras API, ale można również zbudować obiekt poprzez tworzenie lub instacji tf.Module .

Modele Keras ( tf.keras.Model ) i tf.Module automatycznie śledzić zmienne i funkcje z nimi związane. SavedModel zapisuje te połączenia między modułami, zmiennymi i funkcjami, dzięki czemu można je przywrócić podczas ładowania.

Podpisy

Sygnatury to punkty końcowe SavedModel — informują użytkownika, jak uruchomić model i jakie dane wejściowe są potrzebne.

W TensorFlow 1 sygnatury są tworzone przez wymienienie tensorów wejściowych i wyjściowych. W TensorFlow 2, podpisy są generowane przez przechodzącą w funkcji betonowych. (Czytaj więcej o funkcjach TensorFlow w Wprowadzenie do wykresów i tf.function . Przewodnika) W skrócie, funkcja beton jest generowany z tf.function :

# Option 1: Specify an input signature.
@tf.function(input_signature=[...])
def fn(...):
  ...
  return outputs

tf.saved_model.save(model, path, signatures={
    'name': fn
})
# Option 2: Call `get_concrete_function`
@tf.function
def fn(...):
  ...
  return outputs

tf.saved_model.save(model, path, signatures={
    'name': fn.get_concrete_function(...)
})

Session.run

W TensorFlow 1, można nazwać Session.run z importowanego wykresie jak długo już znać nazwy tensora. Pozwala to na odzyskanie przywróconych wartości zmiennych lub uruchomienie części modelu, które nie zostały wyeksportowane w sygnaturach.

W TensorFlow 2, można bezpośrednio uzyskać dostęp do zmiennej, takich jak wagi matrycy ( kernel ):

model = tf.Module()
model.dense_layer = tf.keras.layers.Dense(...)
tf.saved_model.save('my_saved_model')
loaded = tf.saved_model.load('my_saved_model')
loaded.dense_layer.kernel

lub wywołanie tf.function a dołączone do modelu obiektu, na przykład, loaded.__call__ .

W przeciwieństwie do TF1 nie ma możliwości wyodrębnienia części funkcji i uzyskania dostępu do wartości pośrednich. Musisz wyeksportować wszystkie potrzebne funkcjonalności w zapisanym obiektu.

Uwagi dotyczące migracji do obsługi TensorFlow

SavedModel został pierwotnie stworzony do pracy z TensorFlow serwowania . Ta platforma oferuje różne typy żądań prognozowania: klasyfikuj, regresuj i prognozuj.

TensorFlow 1 API pozwala na tworzenie tego typu podpisów z utils:

Klasyfikacja ( classification_signature_def ) i regresji ( regression_signature_def ) ograniczyć wejścia i wyjścia, tak wejścia muszą być tf.Example i wyjścia może być classes , scores lub prediction . Tymczasem przewidzieć podpis ( predict_signature_def ) nie ma ograniczeń.

SavedModels wywożone z TensorFlow 2 API są kompatybilne z TensorFlow Służąc, ale będzie zawierać tylko podpisów predykcji. Sygnatury klasyfikacji i regresji zostały usunięte.

Jeśli wymagają stosowania klasyfikacji i regresji podpisów, można zmodyfikować wyeksportowany SavedModel użyciu tf.compat.v1.saved_model.signature_def_utils.MethodNameUpdater .

Następne kroki

Aby dowiedzieć się więcej o SavedModels w TensorFlow 2, zapoznaj się z następującymi przewodnikami:

Jeśli korzystasz z TensorFlow Hub, te przewodniki mogą okazać się przydatne: