Google is committed to advancing racial equity for Black communities. See how.
Bu sayfa, Cloud Translation API ile çevrilmiştir.
Switch to English

Liman işçisi

Docker , TensorFlow kurulumunu sistemin geri kalanından izole eden sanal ortamlar oluşturmak için kapsayıcılar kullanır. TensorFlow programları (, İnternet'e vb bağlamak, erişim dizinleri GPU'yu kullanın) onun ana makinede kaynakları paylaşabileceğiniz bu sanal ortamında çalıştırılır. TensorFlow Docker görüntüleri , her sürüm için test edilir.

Docker, Linux'ta TensorFlow GPU desteğini etkinleştirmenin en kolay yoludur çünkü ana makinede yalnızca NVIDIA® GPU sürücüsü gereklidir ( NVIDIA® CUDA® Araç Kitinin yüklenmesi gerekmez).

TensorFlow Docker gereksinimleri

  1. Docker'ı yerel ana makinenize kurun .
  2. Linux'ta GPU desteği için NVIDIA Docker desteğini yükleyin .
    • Docker docker -v ile Docker sürümünüzü not alın. 19.03'ten önceki sürümler nvidia-docker2 ve --runtime=nvidia bayrağını gerektirir. --gpus all dahil ve sonraki sürümlerde, nvidia-container-toolkit paketini ve --gpus all işaretini --gpus all . Her iki seçenek de yukarıda bağlantısı verilen sayfada belgelenmiştir.

TensorFlow Docker görüntüsü indirin

Resmi TensorFlow Docker görüntüleri tensorflow / tensorflow Docker Hub deposunda bulunur. Görsel yayınlar, aşağıdaki format kullanılarak etiketlenir :

Etiket Açıklama
latest TensorFlow CPU ikili görüntüsünün en son sürümü. Varsayılan.
nightly TensorFlow görüntüsünün gecelik yapıları. (Kararsız.)
version TensorFlow ikili görüntüsünün sürümünü belirtin, örneğin: 2.1.0
devel TensorFlow master geliştirme ortamının gecelik derlemeleri. TensorFlow kaynak kodunu içerir.
custom-op TF özel operasyonları geliştirmek için özel deneysel görüntü. Daha fazla bilgi burada .

Her temel etiketin , işlevsellik ekleyen veya değiştiren çeşitleri vardır:

Etiket Varyantları Açıklama
tag -gpu GPU desteğiyle belirtilen etiket sürümü. ( Aşağıya bakın )
tag -jupyter Jupyter ile belirtilen etiket sürümü (TensorFlow eğitim not defterlerini içerir)

Aynı anda birden fazla varyant kullanabilirsiniz. Örneğin, aşağıdaki TensorFlow sürüm görüntülerini makinenize indirir:

docker pull tensorflow/tensorflow                     # latest stable release
docker pull tensorflow/tensorflow:devel-gpu           # nightly dev release w/ GPU support
docker pull tensorflow/tensorflow:latest-gpu-jupyter  # latest release w/ GPU support and Jupyter

TensorFlow Docker kapsayıcısı başlatın

TensorFlow ile yapılandırılmış bir kapsayıcı başlatmak için aşağıdaki komut formunu kullanın:

docker run [-it] [--rm] [-p hostPort:containerPort] tensorflow/tensorflow[:tag] [command]

Ayrıntılar için docker çalıştırma başvurusuna bakın .

Yalnızca CPU görüntülerini kullanan örnekler

latest etiketli görüntüyü kullanarak TensorFlow kurulumunu doğrulayalım. Docker, ilk çalıştırıldığında yeni bir TensorFlow görüntüsü indirir:

docker run -it --rm tensorflow/tensorflow \
   python -c "import tensorflow as tf; print(tf.reduce_sum(tf.random.normal([1000, 1000])))"

Biraz daha TensorFlow Docker tarifini gösterelim. TensorFlow ile yapılandırılmış bir kapsayıcı içinde bir bash kabuğu oturumu başlatın:

docker run -it tensorflow/tensorflow bash

Kap içinde bir python oturumu başlatabilir ve TensorFlow'u içe aktarabilirsiniz.

Bir konteyner içinde ana makinede geliştirilmiş bir TensorFlow programını çalıştırmak için, ana bilgisayar dizinini -v hostDir:containerDir -w workDir ve kapsayıcının çalışma dizinini değiştirin ( -v hostDir:containerDir -w workDir ):

docker run -it --rm -v $PWD:/tmp -w /tmp tensorflow/tensorflow python ./script.py

Bir kapsayıcı içinde oluşturulan dosyalar ana bilgisayara sunulduğunda izin sorunları ortaya çıkabilir. Ana sistemdeki dosyaları düzenlemek genellikle en iyisidir.

TensorFlow'un gecelik yapısını kullanarak bir Jupyter Notebook sunucusu başlatın:

docker run -it -p 8888:8888 tensorflow/tensorflow:nightly-jupyter

Talimatları izleyin ve ana bilgisayar web tarayıcınızda URL'yi açın: http://127.0.0.1:8888/?token=...

GPU desteği

Docker, TensorFlow'u bir GPU'da çalıştırmanın en kolay yoludur çünkü ana makine yalnızca NVIDIA® sürücüsünü gerektirir ( NVIDIA® CUDA® Araç Seti gerekli değildir).

Docker'a NVIDIA® GPU desteği eklemek için Nvidia Container Toolkit'i kurun. nvidia-container-runtime yalnızca Linux için kullanılabilir. Ayrıntılar için nvidia-container-runtime platform desteği SSS bölümüne bakın.

Bir GPU'nun mevcut olup olmadığını kontrol edin:

lspci | grep -i nvidia

nvidia-docker kurulumunuzu doğrulayın:

docker run --gpus all --rm nvidia/cuda nvidia-smi

GPU özellikli görüntüleri kullanma örnekleri

GPU etkin bir TensorFlow görüntüsü indirin ve çalıştırın (birkaç dakika sürebilir):

docker run --gpus all -it --rm tensorflow/tensorflow:latest-gpu \
   python -c "import tensorflow as tf; print(tf.reduce_sum(tf.random.normal([1000, 1000])))"

GPU etkin görüntünün ayarlanması biraz zaman alabilir. Tekrar tekrar GPU tabanlı komut dosyaları çalıştırıyorsanız, bir kapsayıcıyı yeniden kullanmak için docker exec kullanabilirsiniz.

Kapsayıcıda bir bash kabuğu oturumu başlatmak için en son TensorFlow GPU görüntüsünü kullanın:

docker run --gpus all -it tensorflow/tensorflow:latest-gpu bash