Trả lời cho sự kiện TensorFlow Everywhere tại địa phương của bạn ngay hôm nay!
Trang này được dịch bởi Cloud Translation API.
Switch to English

Hướng dẫn về TensorFlow Lite

TensorFlow Lite là một bộ công cụ giúp các nhà phát triển chạy mô hình TensorFlow trên các thiết bị di động, nhúng và IoT. Nó cho phép suy luận máy học trên thiết bị với độ trễ thấp và kích thước nhị phân nhỏ.

TensorFlow Lite bao gồm hai thành phần chính:

  • Trình thông dịch TensorFlow Lite , chạy các mô hình được tối ưu hóa đặc biệt trên nhiều loại phần cứng khác nhau, bao gồm điện thoại di động, thiết bị Linux nhúng và bộ vi điều khiển.
  • Bộ chuyển đổi TensorFlow Lite , chuyển đổi các mô hình TensorFlow thành một dạng hiệu quả để trình thông dịch sử dụng và có thể giới thiệu các tối ưu hóa để cải thiện kích thước và hiệu suất nhị phân.

Học máy vượt trội

TensorFlow Lite được thiết kế để giúp dễ dàng thực hiện học máy trên các thiết bị "ở rìa" mạng, thay vì gửi dữ liệu qua lại từ máy chủ. Đối với các nhà phát triển, việc thực hiện học máy trên thiết bị có thể giúp cải thiện:

  • Độ trễ: không có chuyến đi khứ hồi đến máy chủ
  • Quyền riêng tư: không cần dữ liệu rời khỏi thiết bị
  • Kết nối: không cần kết nối Internet
  • Tiêu thụ điện năng: kết nối mạng đang thiếu điện

TensorFlow Lite hoạt động với nhiều loại thiết bị, từ vi điều khiển nhỏ đến điện thoại di động mạnh mẽ.

Bắt đầu

Để bắt đầu làm việc với TensorFlow Lite trên thiết bị di động, hãy truy cập Bắt đầu . Nếu bạn muốn triển khai mô hình TensorFlow Lite cho vi điều khiển, hãy truy cập Vi điều khiển .

Các tính năng chính

  • Trình thông dịch được điều chỉnh cho ML trên thiết bị , hỗ trợ một tập hợp các toán tử cốt lõi được tối ưu hóa cho các ứng dụng trên thiết bị và với kích thước nhị phân nhỏ.
  • Hỗ trợ nền tảng đa dạng , bao gồm các thiết bị AndroidiOS , Linux nhúng và vi điều khiển, sử dụng các API nền tảng để tăng tốc suy luận.
  • API cho nhiều ngôn ngữ bao gồm Java, Swift, Objective-C, C ++ và Python.
  • Hiệu suất cao , với khả năng tăng tốc phần cứng trên các thiết bị được hỗ trợ, hạt nhân được tối ưu hóa cho thiết bị cũng như các kích hoạt và thành kiến ​​hợp nhất trước .
  • Các công cụ tối ưu hóa mô hình , bao gồm lượng tử hóa , có thể giảm kích thước và tăng hiệu suất của mô hình mà không làm giảm độ chính xác.
  • Định dạng mô hình hiệu quả , sử dụng FlatBuffer được tối ưu hóa cho kích thước nhỏ và tính di động.
  • Các mô hình được đào tạo trước cho các tác vụ học máy phổ biến có thể được tùy chỉnh cho ứng dụng của bạn.
  • Các mẫu và hướng dẫn chỉ cho bạn cách triển khai các mô hình học máy trên các nền tảng được hỗ trợ.

Quy trình phát triển

Quy trình sử dụng TensorFlow Lite bao gồm các bước sau:

  1. Chọn một mô hình

    Mang theo mô hình TensorFlow của riêng bạn, tìm một mô hình trực tuyến hoặc chọn một mô hình từ các mô hình Được đào tạo trước của chúng tôi để tham gia hoặc đào tạo lại.

  2. Chuyển đổi mô hình

    Nếu bạn đang sử dụng mô hình tùy chỉnh, hãy sử dụng trình chuyển đổi TensorFlow Lite và một vài dòng Python để chuyển đổi nó sang định dạng TensorFlow Lite.

  3. Triển khai thiết bị của bạn

    Chạy mô hình của bạn trên thiết bị với trình thông dịch TensorFlow Lite , với các API bằng nhiều ngôn ngữ.

  4. Tối ưu hóa mô hình của bạn

    Sử dụng Bộ công cụ tối ưu hóa mô hình của chúng tôi để giảm kích thước mô hình của bạn và tăng hiệu quả của mô hình với tác động tối thiểu đến độ chính xác.

Để tìm hiểu thêm về cách sử dụng TensorFlow Lite trong dự án của bạn, hãy xem Bắt đầu .

Ràng buộc kỹ thuật

TensorFlow Lite có kế hoạch cung cấp khả năng suy luận trên thiết bị hiệu suất cao cho bất kỳ mô hình TensorFlow nào. Tuy nhiên, trình thông dịch TensorFlow Lite hiện hỗ trợ một tập hợp con giới hạn các toán tử TensorFlow đã được tối ưu hóa để sử dụng trên thiết bị. Điều này có nghĩa là một số mô hình yêu cầu các bước bổ sung để hoạt động với TensorFlow Lite.

Để tìm hiểu những toán tử nào khả dụng, hãy xem Khả năng tương thích của toán tử .

Nếu mô hình của bạn sử dụng các toán tử chưa được trình thông dịch TensorFlow Lite hỗ trợ, bạn có thể sử dụng TensorFlow Select để đưa các hoạt động TensorFlow vào bản dựng TensorFlow Lite của mình. Tuy nhiên, điều này sẽ dẫn đến kích thước nhị phân tăng lên.

TensorFlow Lite hiện không hỗ trợ đào tạo trên thiết bị, nhưng nó nằm trong Lộ trình của chúng tôi, cùng với các cải tiến đã được lên kế hoạch khác.

Bước tiếp theo

Bạn muốn tiếp tục tìm hiểu về TensorFlow Lite? Dưới đây là một số bước tiếp theo: