Google มุ่งมั่นที่จะพัฒนาความเท่าเทียมกันทางเชื้อชาติให้กับชุมชนคนผิวดำ มาดูกันว่า
หน้านี้ได้รับการแปลโดย Cloud Translation API
Switch to English

นักเทียบท่า

นักเทียบท่า ใช้ คอนเทนเนอร์ เพื่อสร้างสภาพแวดล้อมเสมือนจริงที่แยกการติดตั้ง TensorFlow จากส่วนที่เหลือของระบบ โปรแกรม TensorFlow ทำงาน ใน สภาพแวดล้อมเสมือนจริงนี้ซึ่งสามารถแบ่งปันทรัพยากรกับเครื่องโฮสต์ (เข้าถึงไดเรกทอรีใช้ GPU เชื่อมต่ออินเทอร์เน็ต ฯลฯ ) รูปภาพ TensorFlow Docker ได้รับการทดสอบสำหรับแต่ละรุ่น

Docker เป็นวิธีที่ง่ายที่สุดในการเปิดใช้งานการรองรับ TensorFlow GPU บน Linux เนื่องจากจำเป็นต้องใช้ ไดรเวอร์NVIDIA® GPU เท่านั้นบนเครื่อง โฮสต์ (ไม่จำเป็นต้องติดตั้ง ชุดเครื่องมือNVIDIA®CUDA® Toolkit )

ข้อกำหนดของ TensorFlow Docker

  1. ติดตั้ง Docker บนเครื่อง โฮสต์ของ คุณ
  2. สำหรับการรองรับ GPU บน Linux ให้ ติดตั้งการสนับสนุน NVIDIA Docker
    • จดบันทึกเวอร์ชันของนักเทียบท่าของคุณด้วยตัวเชื่อมต่อ docker -v รุ่นที่เก่า กว่า 19.03 ต้องใช้ nvidia-docker2 และ --runtime=nvidia flag ในเวอร์ชัน รวมถึงและหลัง 19.03 คุณจะใช้แพ็คเกจ nvidia-container-toolkit และ --gpus all flag ตัวเลือกทั้งสองจะได้รับการบันทึกไว้ในหน้าที่ลิงก์ด้านบน

ดาวน์โหลดภาพ TensorFlow Docker

รูปภาพอย่างเป็นทางการของ TensorFlow Docker ตั้งอยู่ในที่ เก็บ tenorflow / tensorflow Docker Hub การเผยแพร่รูปภาพ จะถูกแท็ก โดยใช้รูปแบบต่อไปนี้:

แท็ก ลักษณะ
latest รุ่นล่าสุดของอิมเมจไบนารี CPU TensorFlow ค่าเริ่มต้น.
nightly สร้างภาพ TensorFlow ทุกคืน (ไม่แน่นอน)
version ระบุ เวอร์ชัน ของอิมเมจไบนารี TensorFlow ตัวอย่างเช่น: 2.1.0
devel สร้างสภาพแวดล้อมการพัฒนา master TensorFlow ทุกคืน รวมถึงซอร์สโค้ดของ TensorFlow
custom-op ภาพทดลองพิเศษสำหรับการพัฒนาตัวเลือก TF แบบกำหนดเอง

:: ข้อมูลเพิ่มเติมที่นี่: https://github.com/tensorflow/custom-op :

แท็ก ฐานแต่ละ แท็ก มีตัวแปรที่เพิ่มหรือเปลี่ยนการทำงาน:

ตัวแปรแท็ก ลักษณะ
tag -gpu แท็ก ปล่อยที่ระบุพร้อมการรองรับ GPU ( ดูด้านล่าง )
tag -jupyter การปล่อย แท็กที่ ระบุด้วย Jupyter (รวมถึงสมุดบันทึกการสอน TensorFlow)

คุณสามารถใช้หลายรูปแบบได้พร้อมกัน ตัวอย่างเช่นการดาวน์โหลดต่อไปนี้ TensorFlow ปล่อยภาพไปยังเครื่องของคุณ:

docker pull tensorflow/tensorflow                     # latest stable release
docker pull tensorflow/tensorflow:devel-gpu           # nightly dev release w/ GPU support
docker pull tensorflow/tensorflow:latest-gpu-jupyter  # latest release w/ GPU support and Jupyter

เริ่มต้นคอนเทนเนอร์ TensorFlow Docker

ในการเริ่มต้นคอนเทนเนอร์ที่กำหนดค่า TensorFlow ให้ใช้แบบฟอร์มคำสั่งต่อไปนี้:

docker run [-it] [--rm] [-p hostPort : containerPort ] tensorflow/tensorflow[: tag ] [ command ]

สำหรับรายละเอียดดูการ อ้างอิงการทำงานของนักเทียบท่า

ตัวอย่างการใช้รูปภาพที่ใช้ CPU เท่านั้น

มาตรวจสอบการติดตั้ง TensorFlow โดยใช้ภาพที่ติดแท็ก latest นักเทียบท่าดาวน์โหลดอิมเมจ TensorFlow ใหม่ในครั้งแรกที่เรียกใช้:

docker run -it --rm tensorflow/tensorflow \
   python -c "import tensorflow as tf; print(tf.reduce_sum(tf.random.normal([1000, 1000])))"

ลองสาธิตสูตร TensorFlow Docker เพิ่มเติม เริ่มเซสชัน bash shell ภายในคอนเทนเนอร์ที่กำหนดค่า TensorFlow:

docker run -it tensorflow/tensorflow bash

ภายในคอนเทนเนอร์คุณสามารถเริ่มเซสชัน python และนำเข้า TensorFlow

ในการรันโปรแกรม TensorFlow ที่พัฒนาขึ้นบนเครื่อง โฮสต์ ภายในคอนเทนเนอร์ให้กำหนดไดเรกทอรีโฮสต์และเปลี่ยนไดเรกทอรีการทำงานของคอนเทนเนอร์ ( -v hostDir:containerDir -w workDir ):

docker run -it --rm -v $PWD:/tmp -w /tmp tensorflow/tensorflow python ./script.py

ปัญหาการอนุญาตสามารถเกิดขึ้นได้เมื่อไฟล์ที่สร้างขึ้นภายในคอนเทนเนอร์ถูกเปิดเผยกับโฮสต์ เป็นการดีที่สุดที่จะแก้ไขไฟล์ในระบบโฮสต์

เริ่มต้นเซิร์ฟเวอร์ Jupyter Notebook โดยใช้บิลด์ตอนกลางคืนของ TensorFlow:

docker run -it -p 8888:8888 tensorflow/tensorflow:nightly-jupyter

ทำตามคำแนะนำและเปิด URL ในเว็บเบราว์เซอร์โฮสต์ของคุณ: http://127.0.0.1:8888/?token=...

รองรับ GPU

นักเทียบท่าเป็นวิธีที่ง่ายที่สุดในการรัน TensorFlow บน GPU เนื่องจากเครื่อง โฮสต์ ต้องการ ไดรฟ์เวอร์ NVIDIA เท่านั้น (ไม่จำเป็นต้องใช้ NVIDIA®CUDA® Toolkit )

ติดตั้ง Nvidia Container Toolkit เพื่อเพิ่มการรองรับNVIDIA® GPU ไปยัง Docker nvidia-container-runtime พร้อมใช้งานสำหรับ Linux เท่านั้น ดู คำถามที่พบบ่อย สำหรับ การสนับสนุนแพลตฟอร์ม nvidia-container-runtime

ตรวจสอบว่ามี GPU หรือไม่:

lspci | grep -i nvidia

ตรวจสอบ nvidia-docker ติดตั้ง nvidia-docker ของคุณ:

docker run --gpus all --rm nvidia/cuda nvidia-smi

ตัวอย่างการใช้รูปภาพที่เปิดใช้งาน GPU

ดาวน์โหลดและเรียกใช้ภาพ TensorFlow ที่เปิดใช้งาน GPU (อาจใช้เวลาสักครู่):

docker run --gpus all -it --rm tensorflow/tensorflow:latest-gpu \
   python -c "import tensorflow as tf; print(tf.reduce_sum(tf.random.normal([1000, 1000])))"

อาจต้องใช้เวลาสักครู่ในการตั้งค่ารูปภาพที่เปิดใช้งาน GPU หากใช้สคริปต์ที่ใช้ GPU ซ้ำหลายครั้งคุณสามารถใช้ docker exec เพื่อใช้งานคอนเทนเนอร์อีกครั้ง

ใช้อิมเมจ TensorFlow GPU ล่าสุดเพื่อเริ่มเซสชัน bash shell ในคอนเทนเนอร์:

docker run --gpus all -it tensorflow/tensorflow:latest-gpu bash