Google is committed to advancing racial equity for Black communities. See how.

Compila con el código fuente

Compila un paquete pip de TensorFlow con el código fuente. Luego, instálalo en Linux Ubuntu y macOS. Si bien las instrucciones pueden funcionar en otros sistemas, solo están probadas en Ubuntu y macOS, y solo son compatibles con estos sistemas.

Configuración para Linux y macOS

Instala las siguientes herramientas de compilación para configurar tu entorno de desarrollo.

Instala Python y las dependencias del paquete de TensorFlow

Ubuntu

sudo apt install python-dev python-pip  # or python3-dev python3-pip

macOS

Requiere Xcode 9.2 o una versión posterior.

Realiza la instalación con el administrador de paquetes Homebrew:

/usr/bin/ruby -e "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/master/install)"
export PATH="/usr/local/bin:/usr/local/sbin:$PATH"
brew install python@2  # or python (Python 3)

Instala las dependencias del paquete pip de TensorFlow (si usas un entorno virtual, omite el argumento --user):

pip install -U --user pip six numpy wheel setuptools mock 'future>=0.17.1'
pip install -U --user keras_applications --no-deps
pip install -U --user keras_preprocessing --no-deps

Instala Bazel

Para compilar TensorFlow, deberás instalar Bazel. Bazelisk es una forma sencilla de instalar Bazel y descargar automáticamente la versión de Bazel correcta para TensorFlow. Para que el proceso sea más sencillo, agrega Bazelisk como el archivo ejecutable bazel en tu PATH.

Si Bazelisk no está disponible, puedes instalar Bazel de forma manual. Asegúrate de instalar una versión compatible de Bazel: cualquier versión entre _TF_MIN_BAZEL_VERSION y _TF_MAX_BAZEL_VERSION, como se especifica en tensorflow/configure.py.

Instala la compatibilidad con GPU (opcional, solo para Linux)

No existe compatibilidad con GPU para macOS.

Lee la guía de compatibilidad con GPU para instalar los controladores y el software adicional necesarios para ejecutar TensorFlow en una GPU.

Descarga el código fuente de TensorFlow

Usa Git para clonar el repositorio de TensorFlow:

git clone https://github.com/tensorflow/tensorflow.git
cd tensorflow

La configuración predeterminada del repositorio es la rama de desarrollo master. También puedes adquirir una rama de actualización para compilar:

git checkout branch_name  # r1.9, r1.10, etc.

Configura la compilación

Para configurar la compilación de tu sistema, ejecuta ./configure en la raíz del árbol fuente de TensorFlow. Esta secuencia de comandos te solicita la ubicación de las dependencias de TensorFlow y requiere opciones de configuración de compilación adicionales (por ejemplo, marcas del compilador).

./configure

Sesión de ejemplo

En la secuencia de comandos ./configure a continuación, se muestra una ejecución de ejemplo de ./configure (tu sesión puede ser diferente):

Opciones de configuración

Compatibilidad con GPU

Para conseguir la compatibilidad con GPU, establece cuda=Y durante la configuración y especifica las versiones de CUDA y cuDNN. Si tu sistema tiene varias versiones de CUDA o cuDNN, establece la versión de forma explícita en lugar de mantener la configuración predeterminada. ./configure crea vínculos simbólicos a las bibliotecas CUDA de tu sistema; por lo tanto, si actualizas las rutas de tu biblioteca CUDA, este paso de la configuración debe ejecutarse nuevamente antes de la compilación.

Optimizaciones

En el caso de las marcas de optimización de la compilación, el valor predeterminado (-march=native) optimiza el código generado para el tipo de CPU de tu máquina. Sin embargo, si compilas TensorFlow para un tipo de CPU diferente, te recomendamos utilizar una marca de optimización más específica. Para ver ejemplos, consulta el manual de GCC.

Configuraciones predefinidas

Existen algunas configuraciones de compilación predefinidas que se pueden agregar al comando bazel build, por ejemplo:

  • --config=mkl: Compatibilidad con MKL-DNN de Intel®
  • --config=monolithic: Configuración para una compilación mayormente estática y monolítica
  • --config=v1: Compila TensorFlow 1.x en lugar de 2.x

Compila el paquete pip

TensorFlow 2.x

Se actualizó el repositorio tensorflow:master a la compilación 2.x de forma predeterminada. Instala Bazel y usa bazel build para crear el paquete de TensorFlow.

bazel build //tensorflow/tools/pip_package:build_pip_package

TensorFlow 1.x

Para compilar la versión 1.x de TensorFlow desde la instancia principal, usa bazel build --config=v1 a fin de crear un paquete de TensorFlow 1.x.

bazel build --config=v1 //tensorflow/tools/pip_package:build_pip_package

Solo para CPU

Usa bazel para que el compilador de paquetes de TensorFlow sea compatible solo con CPU:

bazel build --config=opt //tensorflow/tools/pip_package:build_pip_package

Compatibilidad con GPU

Para que el compilador de paquetes de TensorFlow sea compatible con GPU:

bazel build --config=opt --config=cuda //tensorflow/tools/pip_package:build_pip_package

Opciones de compilación de Bazel

Consulta la referencia de líneas de comandos de Bazel para ver las opciones de compilación.

Es posible que la compilación de TensorFlow con el código fuente consuma mucha memoria RAM. Si tu sistema tiene restricciones de memoria, limita el uso de la memoria RAM de Bazel con --local_ram_resources=2048.

Los paquetes oficiales de TensorFlow se compilan con una cadena de herramientas GCC 7.3 que cumple con el estándar de paquetes manylinux2010.

Para GCC 5 y versiones posteriores, la compatibilidad con la ABI anterior se puede compilar con --cxxopt="-D_GLIBCXX_USE_CXX11_ABI=0". La compatibilidad con la ABI garantiza que las operaciones personalizadas compiladas en el paquete oficial de TensorFlow continúen funcionando con el paquete compilado GCC 5.

Compila el paquete

El comando bazel build crea un archivo ejecutable llamado build_pip_package, que es el programa que compila el paquete pip. Para compilar un paquete .whl en el directorio /tmp/tensorflow_pkg, ejecuta el archivo como se muestra más abajo:

Para compilar desde una rama de la actualización:

./bazel-bin/tensorflow/tools/pip_package/build_pip_package /tmp/tensorflow_pkg

Para compilar desde la instancia principal, usa --nightly_flag a fin de obtener las dependencias correctas:

./bazel-bin/tensorflow/tools/pip_package/build_pip_package --nightly_flag /tmp/tensorflow_pkg

Si bien es posible compilar configuraciones CUDA y no CUDA en el mismo árbol fuente, recomendamos ejecutar bazel clean cuando se alterna entre estas dos configuraciones en el mismo árbol fuente.

Instala el paquete

El nombre del archivo .whl que se generó depende de la versión de TensorFlow y de tu plataforma. Para instalar el paquete, usa pip install, por ejemplo:

pip install /tmp/tensorflow_pkg/tensorflow-version-tags.whl

Compilaciones de Docker en Linux

Las imágenes de desarrollo de Docker de TensorFlow son una manera fácil de configurar un entorno para compilar paquetes de Linux con el código fuente. Estas imágenes ya contienen el código fuente y las dependencias necesarias para compilar TensorFlow. Consulta la guía de Docker de TensorFlow para la instalación y la lista de etiquetas de imagen disponibles.

Solo para CPU

En el siguiente ejemplo, se usa la imagen :devel para compilar un paquete de Python 2 exclusivo para CPU usando el código fuente de TensorFlow más reciente. Consulta la guía de Docker para conocer las etiquetas -devel de TensorFlow disponibles.

Descarga la imagen de desarrollo más reciente e inicia un contenedor de Docker que se usará para compilar el paquete pip:

docker pull tensorflow/tensorflow:devel
docker run -it -w /tensorflow_src -v $PWD:/mnt -e HOST_PERMS="$(id -u):$(id -g)" \
    tensorflow/tensorflow:devel bash

git pull  # within the container, download the latest source code

El comando docker run anterior inicia una shell en el directorio /tensorflow_src, la raíz del árbol fuente. Además, monta el directorio actual del host en el directorio /mnt del contenedor y pasa la información del usuario del host al contenedor mediante una variable de entorno (se usa para establecer permisos; Docker puede dificultar este proceso).

Como alternativa, para compilar una copia del host de TensorFlow dentro de un contenedor, monta el árbol fuente del host en el directorio /tensorflow del contenedor:

docker run -it -w /tensorflow -v /path/to/tensorflow:/tensorflow -v $PWD:/mnt \
    -e HOST_PERMS="$(id -u):$(id -g)" tensorflow/tensorflow:devel bash

Con el árbol fuente configurado, compila el paquete de TensorFlow en el entorno virtual del contenedor:

  1. Configura la compilación: Esta acción le pide al usuario que responda preguntas de la configuración de compilación.
  2. Compila la herramienta utilizada para crear el paquete pip.
  3. Ejecuta la herramienta para crear el paquete pip.
  4. Ajusta los permisos de propiedad del archivo fuera del contenedor.
./configure  # answer prompts or use defaults

bazel build --config=opt //tensorflow/tools/pip_package:build_pip_package

./bazel-bin/tensorflow/tools/pip_package/build_pip_package /mnt  # create package

chown $HOST_PERMS /mnt/tensorflow-version-tags.whl

Instala y verifica el paquete dentro del contenedor:

pip uninstall tensorflow  # remove current version

pip install /mnt/tensorflow-version-tags.whl
cd /tmp  # don't import from source directory
python -c "import tensorflow as tf; print(tf.__version__)"

En tu máquina anfitrión, el paquete pip de TensorFlow se encuentra en el directorio actual (con permisos del usuario del host): ./tensorflow-version-tags.whl

Compatibilidad con GPU

Docker es la forma más fácil de compilar la compatibilidad con GPU para TensorFlow, ya que la máquina anfitrión solo requiere el controlador de NVIDIA® (no es necesario instalar el kit de herramientas CUDA® de NVIDIA®). Consulta la guía de compatibilidad con GPU y la guía de Docker de TensorFlow para configurar nvidia-docker (solo para Linux).

El siguiente ejemplo descarga la imagen :devel-gpu-py3 de TensorFlow y usa nvidia-docker para ejecutar el contenedor habilitado para GPU. Esta imagen de desarrollo está configurada para compilar un paquete pip de Python 3 compatible con GPU:

docker pull tensorflow/tensorflow:devel-gpu-py3
docker run --gpus all -it -w /tensorflow -v $PWD:/mnt -e HOST_PERMS="$(id -u):$(id -g)" \
    tensorflow/tensorflow:devel-gpu-py3 bash
git pull  # within the container, download the latest source code

Luego, dentro del entorno virtual del contenedor, compila el paquete de TensorFlow compatible con GPU:

./configure  # answer prompts or use defaults

bazel build --config=opt --config=cuda //tensorflow/tools/pip_package:build_pip_package

./bazel-bin/tensorflow/tools/pip_package/build_pip_package /mnt  # create package

chown $HOST_PERMS /mnt/tensorflow-version-tags.whl

Instala y verifica el paquete dentro del contenedor y busca una GPU:

pip uninstall tensorflow  # remove current version

pip install /mnt/tensorflow-version-tags.whl
cd /tmp  # don't import from source directory
python -c "import tensorflow as tf; print(tf.contrib.eager.num_gpus())"

Configuraciones de compilación probadas

Linux

CPU

VersiónVersión de PythonCompiladorHerramientas de compilación
tensorflow-2.1.02.7, 3.5 a 3.7GCC 7.3.1Bazel 0.27.1
tensorflow-2.0.02.7, 3.3 a 3.7GCC 7.3.1Bazel 0.26.1
tensorflow-1.14.02.7, 3.3 a 3.7GCC 4.8Bazel 0.24.1
tensorflow-1.13.12.7, 3.3 a 3.7GCC 4.8Bazel 0.19.2
tensorflow-1.12.02.7, 3.3 a 3.6GCC 4.8Bazel 0.15.0
tensorflow-1.11.02.7, 3.3 a 3.6GCC 4.8Bazel 0.15.0
tensorflow-1.10.02.7, 3.3 a 3.6GCC 4.8Bazel 0.15.0
tensorflow-1.9.02.7, 3.3 a 3.6GCC 4.8Bazel 0.11.0
tensorflow-1.8.02.7, 3.3 a 3.6GCC 4.8Bazel 0.10.0
tensorflow-1.7.02.7, 3.3 a 3.6GCC 4.8Bazel 0.10.0
tensorflow-1.6.02.7, 3.3 a 3.6GCC 4.8Bazel 0.9.0
tensorflow-1.5.02.7, 3.3 a 3.6GCC 4.8Bazel 0.8.0
tensorflow-1.4.02.7, 3.3 a 3.6GCC 4.8Bazel 0.5.4
tensorflow-1.3.02.7, 3.3 a 3.6GCC 4.8Bazel 0.4.5
tensorflow-1.2.02.7, 3.3 a 3.6GCC 4.8Bazel 0.4.5
tensorflow-1.1.02.7, 3.3 a 3.6GCC 4.8Bazel 0.4.2
tensorflow-1.0.02.7, 3.3 a 3.6GCC 4.8Bazel 0.4.2

GPU

VersiónVersión de PythonCompiladorHerramientas de compilacióncuDNNCUDA
tensorflow-2.1.02.7, 3.5 a 3.7GCC 7.3.1Bazel 0.27.17.610.1
tensorflow-2.0.02.7, 3.3 a 3.7GCC 7.3.1Bazel 0.26.17.410.0
tensorflow_gpu-1.14.02.7, 3.3 a 3.7GCC 4.8Bazel 0.24.17.410.0
tensorflow_gpu-1.13.12.7, 3.3 a 3.7GCC 4.8Bazel 0.19.27.410.0
tensorflow_gpu-1.12.02.7, 3.3 a 3.6GCC 4.8Bazel 0.15.079
tensorflow_gpu-1.11.02.7, 3.3 a 3.6GCC 4.8Bazel 0.15.079
tensorflow_gpu-1.10.02.7, 3.3 a 3.6GCC 4.8Bazel 0.15.079
tensorflow_gpu-1.9.02.7, 3.3 a 3.6GCC 4.8Bazel 0.11.079
tensorflow_gpu-1.8.02.7, 3.3 a 3.6GCC 4.8Bazel 0.10.079
tensorflow_gpu-1.7.02.7, 3.3 a 3.6GCC 4.8Bazel 0.9.079
tensorflow_gpu-1.6.02.7, 3.3 a 3.6GCC 4.8Bazel 0.9.079
tensorflow_gpu-1.5.02.7, 3.3 a 3.6GCC 4.8Bazel 0.8.079
tensorflow_gpu-1.4.02.7, 3.3 a 3.6GCC 4.8Bazel 0.5.468
tensorflow_gpu-1.3.02.7, 3.3 a 3.6GCC 4.8Bazel 0.4.568
tensorflow_gpu-1.2.02.7, 3.3 a 3.6GCC 4.8Bazel 0.4.55.18
tensorflow_gpu-1.1.02.7, 3.3 a 3.6GCC 4.8Bazel 0.4.25.18
tensorflow_gpu-1.0.02.7, 3.3 a 3.6GCC 4.8Bazel 0.4.25.18

macOS

CPU

VersiónVersión de PythonCompiladorHerramientas de compilación
tensorflow-2.0.02.7, 3.5 a 3.7Clang de Xcode 10.1Bazel 0.27.1
tensorflow-2.0.02.7, 3.3 a 3.7Clang de Xcode 10.1Bazel 0.26.1
tensorflow-1.14.02.7, 3.3 a 3.7Clang de XcodeBazel 0.24.1
tensorflow-1.13.12.7, 3.3 a 3.7Clang de XcodeBazel 0.19.2
tensorflow-1.12.02.7, 3.3 a 3.6Clang de XcodeBazel 0.15.0
tensorflow-1.11.02.7, 3.3 a 3.6Clang de XcodeBazel 0.15.0
tensorflow-1.10.02.7, 3.3 a 3.6Clang de XcodeBazel 0.15.0
tensorflow-1.9.02.7, 3.3 a 3.6Clang de XcodeBazel 0.11.0
tensorflow-1.8.02.7, 3.3 a 3.6Clang de XcodeBazel 0.10.1
tensorflow-1.7.02.7, 3.3 a 3.6Clang de XcodeBazel 0.10.1
tensorflow-1.6.02.7, 3.3 a 3.6Clang de XcodeBazel 0.8.1
tensorflow-1.5.02.7, 3.3 a 3.6Clang de XcodeBazel 0.8.1
tensorflow-1.4.02.7, 3.3 a 3.6Clang de XcodeBazel 0.5.4
tensorflow-1.3.02.7, 3.3 a 3.6Clang de XcodeBazel 0.4.5
tensorflow-1.2.02.7, 3.3 a 3.6Clang de XcodeBazel 0.4.5
tensorflow-1.1.02.7, 3.3 a 3.6Clang de XcodeBazel 0.4.2
tensorflow-1.0.02.7, 3.3 a 3.6Clang de XcodeBazel 0.4.2

GPU

VersiónVersión de PythonCompiladorHerramientas de compilacióncuDNNCUDA
tensorflow_gpu-1.1.02.7, 3.3 a 3.6Clang de XcodeBazel 0.4.25.18
tensorflow_gpu-1.0.02.7, 3.3 a 3.6Clang de XcodeBazel 0.4.25.18