Se usó la API de Cloud Translation para traducir esta página.
Switch to English

Metadatos de AA

ML Metadata (MLMD) es una biblioteca para registrar y recuperar metadatos asociados con los flujos de trabajo de desarrolladores de ML y científicos de datos. MLMD es una parte integral de TensorFlow Extended (TFX) , pero está diseñado para que se pueda usar de forma independiente.

Cada ejecución de una canalización de ML de producción genera metadatos que contienen información sobre los diversos componentes de la canalización, sus ejecuciones (por ejemplo, ejecuciones de entrenamiento) y los artefactos resultantes (por ejemplo, modelos entrenados). En caso de errores o comportamientos inesperados de la canalización, estos metadatos se pueden aprovechar para analizar el linaje de los componentes de la canalización y depurar problemas. Piense en estos metadatos como el equivalente a iniciar sesión en el desarrollo de software.

MLMD lo ayuda a comprender y analizar todas las partes interconectadas de su canal de ML en lugar de analizarlas de forma aislada y puede ayudarlo a responder preguntas sobre su canal de ML como:

  • ¿En qué conjunto de datos se entrenó el modelo?
  • ¿Cuáles fueron los hiperparámetros utilizados para entrenar el modelo?
  • ¿Qué canalización creó el modelo?
  • ¿Qué entrenamiento llevó a este modelo?
  • ¿Qué versión de TensorFlow creó este modelo?
  • ¿Cuándo se impulsó el modelo fallido?

Almacén de metadatos

MLMD registra los siguientes tipos de metadatos en una base de datos llamada Metadata Store .

  1. Metadatos sobre los artefactos generados a través de los componentes / pasos de sus canalizaciones de AA
  2. Metadatos sobre las ejecuciones de estos componentes / pasos
  3. Metadatos sobre canalizaciones e información de linaje asociado

Metadata Store proporciona API para registrar y recuperar metadatos desde y hacia el backend de almacenamiento. El backend de almacenamiento se puede conectar y ampliar. MLMD proporciona implementaciones de referencia para SQLite (que admite memoria y disco) y MySQL listas para usar.

Este gráfico muestra una descripción general de alto nivel de los diversos componentes que forman parte de MLMD.

Descripción general de los metadatos de AA

Backends de almacenamiento de metadatos y configuración de la conexión de la tienda

El objeto MetadataStore recibe una configuración de conexión que corresponde al backend de almacenamiento utilizado.

  • Fake Database proporciona una base de datos en memoria (usando SQLite) para experimentación rápida y ejecuciones locales. La base de datos se elimina cuando se destruye el objeto de tienda.
import ml_metadata as mlmd
from ml_metadata.proto import metadata_store_pb2

connection_config = metadata_store_pb2.ConnectionConfig()
connection_config.fake_database.SetInParent() # Sets an empty fake database proto.
store = metadata_store.MetadataStore(connection_config)
  • SQLite lee y escribe archivos desde el disco.
connection_config = metadata_store_pb2.ConnectionConfig()
connection_config.sqlite.filename_uri = '...'
connection_config.sqlite.connection_mode = 3 # READWRITE_OPENCREATE
store = metadata_store.MetadataStore(connection_config)
  • MySQL se conecta a un servidor MySQL.
connection_config = metadata_store_pb2.ConnectionConfig()
connection_config.mysql.host = '...'
connection_config.mysql.port = '...'
connection_config.mysql.database = '...'
connection_config.mysql.user = '...'
connection_config.mysql.password = '...'
store = metadata_store.MetadataStore(connection_config)

Modelo de datos

El almacén de metadatos utiliza el siguiente modelo de datos para registrar y recuperar metadatos del backend de almacenamiento.

  • ArtifactType describe el tipo de un artefacto y sus propiedades que se almacenan en el almacén de metadatos. Puede registrar estos tipos sobre la marcha con la tienda de metadatos en código, o puede cargarlos en la tienda desde un formato serializado. Una vez que registra un tipo, su definición está disponible durante toda la vida útil de la tienda.
  • Un Artifact describe una instancia específica de ArtifactType y sus propiedades que se escriben en el almacén de metadatos.
  • Un ExecutionType describe un tipo de componente o paso en un flujo de trabajo y sus parámetros de tiempo de ejecución.
  • Una Execution es un registro de la Execution de un componente o un paso en un flujo de trabajo de AA y los parámetros de tiempo de ejecución. Una ejecución se puede considerar como una instancia de ExecutionType . Las ejecuciones se registran cuando ejecuta una canalización o paso de ML.
  • Un Event es un registro de la relación entre artefactos y ejecuciones. Cuando ocurre una ejecución, los eventos registran cada artefacto que fue utilizado por la ejecución y cada artefacto que se produjo. Estos registros permiten el seguimiento del linaje a lo largo de un flujo de trabajo. Al observar todos los eventos, MLMD sabe qué ejecuciones sucedieron y qué artefactos se crearon como resultado. MLMD puede entonces recurrir desde cualquier artefacto a todas sus entradas de aguas arriba.
  • Un ContextType describe un tipo de grupo conceptual de artefactos y ejecuciones en un flujo de trabajo y sus propiedades estructurales. Por ejemplo: proyectos, ejecuciones de tuberías, experimentos, propietarios, etc.
  • Un Context es una instancia de ContextType . Captura la información compartida dentro del grupo. Por ejemplo: nombre del proyecto, ID de confirmación de la lista de cambios, anotaciones de experimentos, etc. Tiene un nombre único definido por el usuario dentro de su ContextType .
  • Una Attribution es un registro de la relación entre artefactos y contextos.
  • Una Association es un registro de la relación entre ejecuciones y contextos.

Funcionalidad MLMD

El seguimiento de las entradas y salidas de todos los componentes / pasos en un flujo de trabajo de ML y su linaje permite que las plataformas de ML habiliten varias características importantes. La siguiente lista proporciona una descripción general no exhaustiva de algunos de los principales beneficios.

  • Enumere todos los artefactos de un tipo específico. Ejemplo: todos los modelos que han sido entrenados.
  • Cargue dos artefactos del mismo tipo para compararlos. Ejemplo: compare los resultados de dos experimentos.
  • Muestre un DAG de todas las ejecuciones relacionadas y sus artefactos de entrada y salida de un contexto. Ejemplo: visualice el flujo de trabajo de un experimento para depurar y descubrir.
  • Repita todos los eventos para ver cómo se creó un artefacto. Ejemplos: vea qué datos se incluyeron en un modelo; hacer cumplir los planes de retención de datos.
  • Identifique todos los artefactos que se crearon con un artefacto determinado. Ejemplos: vea todos los modelos entrenados a partir de un conjunto de datos específico; marcar modelos basados ​​en datos incorrectos.
  • Determine si se ha ejecutado una ejecución en las mismas entradas antes. Ejemplo: determine si un componente / paso ya ha completado el mismo trabajo y la salida anterior se puede reutilizar.
  • Registre y consulte el contexto de las ejecuciones del flujo de trabajo. Ejemplos: realizar un seguimiento del propietario y la lista de cambios utilizados para la ejecución de un flujo de trabajo; agrupar el linaje por experimentos; administrar artefactos por proyectos.

Consulte el tutorial de MLMD para ver un ejemplo que le muestra cómo usar la API de MLMD y el almacén de metadatos para recuperar información de linaje.

Integre metadatos de aprendizaje automático en sus flujos de trabajo de aprendizaje automático

Si es un desarrollador de plataforma interesado en integrar MLMD en su sistema, use el flujo de trabajo de ejemplo a continuación para usar las API de MLMD de bajo nivel para rastrear la ejecución de una tarea de capacitación. También puede usar API de Python de nivel superior en entornos de notebook para registrar metadatos de experimentos.

Flujo de ejemplo de metadatos de AA

1) Registrar tipos de artefactos

# Create ArtifactTypes, e.g., Data and Model
data_type = metadata_store_pb2.ArtifactType()
data_type.name = "DataSet"
data_type.properties["day"] = metadata_store_pb2.INT
data_type.properties["split"] = metadata_store_pb2.STRING
data_type_id = store.put_artifact_type(data_type)

model_type = metadata_store_pb2.ArtifactType()
model_type.name = "SavedModel"
model_type.properties["version"] = metadata_store_pb2.INT
model_type.properties["name"] = metadata_store_pb2.STRING
model_type_id = store.put_artifact_type(model_type)

2) Registrar tipos de ejecución para todos los pasos del flujo de trabajo de ML

# Create an ExecutionType, e.g., Trainer
trainer_type = metadata_store_pb2.ExecutionType()
trainer_type.name = "Trainer"
trainer_type.properties["state"] = metadata_store_pb2.STRING
trainer_type_id = store.put_execution_type(trainer_type)

3) Cree un artefacto de DataSet ArtifactType

# Create an input artifact of type DataSet
data_artifact = metadata_store_pb2.Artifact()
data_artifact.uri = 'path/to/data'
data_artifact.properties["day"].int_value = 1
data_artifact.properties["split"].string_value = 'train'
data_artifact.type_id = data_type_id
data_artifact_id = store.put_artifacts([data_artifact])[0]

4) Cree la ejecución para la ejecución de Trainer (normalmente un tfx.components.Trainer ExecutionType)

trainer_run = metadata_store_pb2.Execution()
trainer_run.type_id = trainer_type_id
trainer_run.properties["state"].string_value = "RUNNING"
run_id = store.put_executions([trainer_run])[0]

5) Definir el evento de entrada y leer los datos

# Define the input event
input_event = metadata_store_pb2.Event()
input_event.artifact_id = data_artifact_id
input_event.execution_id = run_id
input_event.type = metadata_store_pb2.Event.DECLARED_INPUT

# Record the input event in the metadata store
store.put_events([input_event])

6) Declare el artefacto de salida

# Declare the output artifact of type SavedModel
model_artifact = metadata_store_pb2.Artifact()
model_artifact.uri = 'path/to/model/file'
model_artifact.properties["version"].int_value = 1
model_artifact.properties["name"].string_value = 'MNIST-v1'
model_artifact.type_id = model_type_id
model_artifact_id = store.put_artifacts([model_artifact])[0]

7) Grabe el evento de salida

# Declare the output event
output_event = metadata_store_pb2.Event()
output_event.artifact_id = model_artifact_id
output_event.execution_id = run_id
output_event.type = metadata_store_pb2.Event.DECLARED_OUTPUT

# Submit output event to the Metadata Store
store.put_events([output_event])

8) Marcar la ejecución como completada

trainer_run.id = run_id
trainer_run.properties["state"].string_value = "COMPLETED"
store.put_executions([trainer_run])

9) Agrupar artefactos y ejecuciones bajo un contexto usando atribuciones y afirmaciones artefactos

# Create a ContextType, e.g., Experiment with a note property
experiment_type = metadata_store_pb2.ContextType()
experiment_type.name = "Experiment"
experiment_type.properties["note"] = metadata_store_pb2.STRING
experiment_type_id = store.put_context_type(experiment_type)

# Group the model and the trainer run to an experiment.
my_experiment = metadata_store_pb2.Context()
my_experiment.type_id = experiment_type_id
# Give the experiment a name
my_experiment.name = "exp1"
my_experiment.properties["note"].string_value = "My first experiment."
experiment_id = store.put_contexts([my_experiment])[0]

attribution = metadata_store_pb2.Attribution()
attribution.artifact_id = model_artifact_id
attribution.context_id = experiment_id

association = metadata_store_pb2.Association()
association.execution_id = run_id
association.context_id = experiment_id

store.put_attributions_and_associations([attribution], [association])

Utilice MLMD con un servidor gRPC remoto

Puede usar MLMD con servidores gRPC remotos como se muestra a continuación:

  • Iniciar un servidor
bazel run -c opt --define grpc_no_ares=true  //ml_metadata/metadata_store:metadata_store_server
  • Cree el código auxiliar del cliente y utilícelo en Python
from grpc import insecure_channel
from ml_metadata.proto import metadata_store_pb2
from ml_metadata.proto import metadata_store_service_pb2
from ml_metadata.proto import metadata_store_service_pb2_grpc

channel = insecure_channel('localhost:8080')
stub = metadata_store_service_pb2_grpc.MetadataStoreServiceStub(channel)
  • Utilice MLMD con llamadas RPC
# Create ArtifactTypes, e.g., Data and Model
data_type = metadata_store_pb2.ArtifactType()
data_type.name = "DataSet"
data_type.properties["day"] = metadata_store_pb2.INT
data_type.properties["split"] = metadata_store_pb2.STRING

request = metadata_store_service_pb2.PutArtifactTypeRequest()
request.all_fields_match = True
request.artifact_type.CopyFrom(data_type)
stub.PutArtifactType(request)

model_type = metadata_store_pb2.ArtifactType()
model_type.name = "SavedModel"
model_type.properties["version"] = metadata_store_pb2.INT
model_type.properties["name"] = metadata_store_pb2.STRING

request.artifact_type.CopyFrom(model_type)
stub.PutArtifactType(request)

Recursos

La biblioteca MLMD tiene una API de alto nivel que puede usar fácilmente con sus canalizaciones de ML. Consulte la documentación de la API de MLMD para obtener más detalles.

Consulte también el tutorial de MLMD para aprender a usar MLMD para rastrear el linaje de los componentes de su tubería.