Esta página foi traduzida pela API Cloud Translation.
Switch to English

Use o TensorFlow Serving com Kubernetes

Este tutorial mostra como usar os componentes do TensorFlow Serving em execução em contêineres do Docker para atender ao modelo TensorFlow ResNet e como implantar o cluster de serviço com Kubernetes.

Para saber mais sobre o TensorFlow Serving, recomendamos o tutorial básico do TensorFlow Serving e o tutorial avançado do TensorFlow Serving .

Para saber mais sobre o modelo TensorFlow ResNet, recomendamos a leitura do ResNet no TensorFlow .

Parte 1: Configuração

Antes de começar, primeiro instale o Docker .

Baixe o ResNet SavedModel

Vamos limpar nosso diretório local de modelos, caso já tenhamos um:

rm -rf /tmp/resnet

Redes residuais profundas, ou ResNets para abreviar, forneceram a ideia revolucionária de mapeamentos de identidade para permitir o treinamento de redes neurais convolucionais muito profundas. Para nosso exemplo, faremos o download de um TensorFlow SavedModel do ResNet para o conjunto de dados ImageNet.

mkdir /tmp/resnet
curl -s http://download.tensorflow.org/models/official/20181001_resnet/savedmodels/resnet_v2_fp32_savedmodel_NHWC_jpg.tar.gz | \
tar --strip-components=2 -C /tmp/resnet -xvz

Podemos verificar se temos o SavedModel:

$ ls /tmp/resnet/*
saved_model.pb  variables

Parte 2: executando no Docker

Imagem de confirmação para implantação

Agora queremos obter uma imagem de serviço e confirmar todas as alterações em uma nova imagem $USER/resnet_serving para implantação do Kubernetes.

Primeiro, executamos uma imagem servindo como um daemon:

docker run -d --name serving_base tensorflow/serving

Em seguida, copiamos os dados do modelo ResNet para a pasta de modelo do contêiner:

docker cp /tmp/resnet serving_base:/models/resnet

Por fim, comprometemos o contêiner para servir o modelo ResNet:

docker commit --change "ENV MODEL_NAME resnet" serving_base \
  $USER/resnet_serving

Agora vamos parar o recipiente da base de servir

docker kill serving_base
docker rm serving_base

Inicie o servidor

Agora vamos iniciar o contêiner com o modelo ResNet para que esteja pronto para veiculação, expondo a porta gRPC 8500:

docker run -p 8500:8500 -t $USER/resnet_serving &

Consultar o servidor

Para o cliente, precisaremos clonar o repositório TensorFlow Serving GitHub:

git clone https://github.com/tensorflow/serving
cd serving

Consulte o servidor com resnet_client_grpc.py . O cliente baixa uma imagem e a envia pelo gRPC para classificação em categorias ImageNet .

tools/run_in_docker.sh python tensorflow_serving/example/resnet_client_grpc.py

Isso deve resultar em uma saída como:

outputs {
  key: "classes"
  value {
    dtype: DT_INT64
    tensor_shape {
      dim {
        size: 1
      }
    }
    int64_val: 286
  }
}
outputs {
  key: "probabilities"
  value {
    dtype: DT_FLOAT
    tensor_shape {
      dim {
        size: 1
      }
      dim {
        size: 1001
      }
    }
    float_val: 2.41628322328e-06
    float_val: 1.90121829746e-06
    float_val: 2.72477100225e-05
    float_val: 4.42638565801e-07
    float_val: 8.98362372936e-07
    float_val: 6.84421956976e-06
    float_val: 1.66555237229e-05
...
    float_val: 1.59407863976e-06
    float_val: 1.2315689446e-06
    float_val: 1.17812135159e-06
    float_val: 1.46365800902e-05
    float_val: 5.81210713335e-07
    float_val: 6.59980651108e-05
    float_val: 0.00129527016543
  }
}
model_spec {
  name: "resnet"
  version {
    value: 1538687457
  }
  signature_name: "serving_default"
}

Funciona! O servidor classificou com sucesso uma imagem de gato!

Parte 3: implantar no Kubernetes

Nesta seção, usamos a imagem do contêiner criada na Parte 0 para implantar um cluster de serviço com Kubernetes no Google Cloud Platform .

Login do projeto GCloud

Aqui, supomos que você criou e registrou um projeto gcloud denominado tensorflow-serving .

gcloud auth login --project tensorflow-serving

Crie um cluster de contêiner

Primeiro, criamos um cluster do Google Kubernetes Engine para implantação de serviço.

$ gcloud container clusters create resnet-serving-cluster --num-nodes 5

Que deve resultar em algo como:

Creating cluster resnet-serving-cluster...done.
Created [https://container.googleapis.com/v1/projects/tensorflow-serving/zones/us-central1-f/clusters/resnet-serving-cluster].
kubeconfig entry generated for resnet-serving-cluster.
NAME                       ZONE           MASTER_VERSION  MASTER_IP        MACHINE_TYPE   NODE_VERSION  NUM_NODES  STATUS
resnet-serving-cluster  us-central1-f  1.1.8           104.197.163.119  n1-standard-1  1.1.8         5          RUNNING

Defina o cluster padrão para o comando gcloud container e passe as credenciais do cluster para kubectl .

gcloud config set container/cluster resnet-serving-cluster
gcloud container clusters get-credentials resnet-serving-cluster

que deve resultar em:

Fetching cluster endpoint and auth data.
kubeconfig entry generated for resnet-serving-cluster.

Faça upload da imagem Docker

Vamos agora enviar nossa imagem para o Google Container Registry para que possamos executá-la no Google Cloud Platform.

Primeiro, marcamos a imagem $USER/resnet_serving usando o formato do Container Registry e nosso nome de projeto,

docker tag $USER/resnet_serving gcr.io/tensorflow-serving/resnet

Em seguida, configuramos o Docker para usar gcloud como um auxiliar de credencial:

gcloud auth configure-docker

Em seguida, colocamos a imagem no Registro,

docker push gcr.io/tensorflow-serving/resnet

Criar implantação e serviço do Kubernetes

A implantação consiste em três réplicas do servidor resnet_inference controlado por uma implantação do Kubernetes . As réplicas são expostas externamente por um serviço Kubernetes junto com um balanceador de carga externo .

Nós os criamos usando o exemplo de configuração do Kubernetes resnet_k8s.yaml .

kubectl create -f tensorflow_serving/example/resnet_k8s.yaml

Com saída:

deployment "resnet-deployment" created
service "resnet-service" created

Para visualizar o status da implantação e pods:

$ kubectl get deployments
NAME                    DESIRED   CURRENT   UP-TO-DATE   AVAILABLE   AGE
resnet-deployment    3         3         3            3           5s
$ kubectl get pods
NAME                         READY     STATUS    RESTARTS   AGE
resnet-deployment-bbcbc   1/1       Running   0          10s
resnet-deployment-cj6l2   1/1       Running   0          10s
resnet-deployment-t1uep   1/1       Running   0          10s

Para ver o status do serviço:

$ kubectl get services
NAME                    CLUSTER-IP       EXTERNAL-IP       PORT(S)     AGE
resnet-service       10.239.240.227   104.155.184.157   8500/TCP    1m

Pode demorar um pouco para que tudo esteja funcionando.

$ kubectl describe service resnet-service
Name:           resnet-service
Namespace:      default
Labels:         run=resnet-service
Selector:       run=resnet-service
Type:           LoadBalancer
IP:         10.239.240.227
LoadBalancer Ingress:   104.155.184.157
Port:           <unset> 8500/TCP
NodePort:       <unset> 30334/TCP
Endpoints:      <none>
Session Affinity:   None
Events:
  FirstSeen LastSeen    Count   From            SubobjectPath   Type        Reason      Message
  --------- --------    -----   ----            -------------   --------    ------      -------
  1m        1m      1   {service-controller }           Normal      CreatingLoadBalancer    Creating load balancer
  1m        1m      1   {service-controller }           Normal      CreatedLoadBalancer Created load balancer

O endereço IP externo do serviço está listado ao lado de LoadBalancer Ingress.

Consultar o modelo

Agora podemos consultar o serviço em seu endereço externo de nosso host local.

$ tools/run_in_docker.sh python \
  tensorflow_serving/example/resnet_client_grpc.py \
  --server=104.155.184.157:8500
outputs {
  key: "classes"
  value {
    dtype: DT_INT64
    tensor_shape {
      dim {
        size: 1
      }
    }
    int64_val: 286
  }
}
outputs {
  key: "probabilities"
  value {
    dtype: DT_FLOAT
    tensor_shape {
      dim {
        size: 1
      }
      dim {
        size: 1001
      }
    }
    float_val: 2.41628322328e-06
    float_val: 1.90121829746e-06
    float_val: 2.72477100225e-05
    float_val: 4.42638565801e-07
    float_val: 8.98362372936e-07
    float_val: 6.84421956976e-06
    float_val: 1.66555237229e-05
...
    float_val: 1.59407863976e-06
    float_val: 1.2315689446e-06
    float_val: 1.17812135159e-06
    float_val: 1.46365800902e-05
    float_val: 5.81210713335e-07
    float_val: 6.59980651108e-05
    float_val: 0.00129527016543
  }
}
model_spec {
  name: "resnet"
  version {
    value: 1538687457
  }
  signature_name: "serving_default"
}

Você implantou com sucesso o modelo ResNet servindo como um serviço no Kubernetes!