AOT সংকলন ব্যবহার করে

tfcompile কি?

tfcompile হল একটি স্বতন্ত্র টুল যা আগাম-অব-টাইম (AOT) টেনসরফ্লো গ্রাফগুলিকে এক্সিকিউটেবল কোডে কম্পাইল করে। এটি মোট বাইনারি আকার কমাতে পারে এবং কিছু রানটাইম ওভারহেড এড়াতে পারে। tfcompile এর একটি সাধারণ ব্যবহার-ক্ষেত্র হল মোবাইল ডিভাইসের জন্য এক্সিকিউটেবল কোডে একটি অনুমান গ্রাফ কম্পাইল করা।

TensorFlow গ্রাফটি সাধারণত TensorFlow রানটাইম দ্বারা কার্যকর করা হয়। এটি গ্রাফে প্রতিটি নোড কার্যকর করার জন্য কিছু রানটাইম ওভারহেড বহন করে। এটি একটি বৃহত্তর মোট বাইনারি আকারের দিকেও নিয়ে যায়, যেহেতু গ্রাফটি ছাড়াও টেনসরফ্লো রানটাইমের কোড উপলব্ধ হওয়া প্রয়োজন। tfcompile দ্বারা উত্পাদিত এক্সিকিউটেবল কোড TensorFlow রানটাইম ব্যবহার করে না এবং শুধুমাত্র কার্নেলের উপর নির্ভরশীলতা রয়েছে যা আসলে গণনায় ব্যবহৃত হয়।

কম্পাইলারটি XLA ফ্রেমওয়ার্কের উপরে নির্মিত। XLA ফ্রেমওয়ার্কের সাথে টেনসরফ্লোকে ব্রিজ করার কোডটি টেনসরফ্লো/কম্পাইলারের অধীনে থাকে।

tfcompile কি করে?

tfcompile একটি সাবগ্রাফ নেয়, যা ফিড এবং আনয়নের TensorFlow ধারণা দ্বারা চিহ্নিত করা হয় এবং একটি ফাংশন তৈরি করে যা সেই সাবগ্রাফকে প্রয়োগ করে। feeds হল ফাংশনের জন্য ইনপুট আর্গুমেন্ট এবং fetches হল ফাংশনের জন্য আউটপুট আর্গুমেন্ট৷ সমস্ত ইনপুট ফিড দ্বারা সম্পূর্ণরূপে নির্দিষ্ট করা আবশ্যক; ফলস্বরূপ ছাঁটাই করা সাবগ্রাফে প্লেসহোল্ডার বা পরিবর্তনশীল নোড থাকতে পারে না। ফিড হিসাবে সমস্ত স্থানধারক এবং ভেরিয়েবল নির্দিষ্ট করা সাধারণ, যা নিশ্চিত করে যে ফলস্বরূপ সাবগ্রাফে আর এই নোডগুলি থাকবে না। উত্পন্ন ফাংশনটি একটি cc_library হিসাবে প্যাকেজ করা হয়, একটি হেডার ফাইলের সাথে ফাংশন স্বাক্ষর রপ্তানি করে এবং একটি অবজেক্ট ফাইল যার বাস্তবায়ন রয়েছে৷ ব্যবহারকারী উত্পন্ন ফাংশনটি যথাযথভাবে আহ্বান করতে কোড লেখেন।

tfcompile ব্যবহার করে

এই বিভাগে টেনসরফ্লো সাবগ্রাফ থেকে tfcompile সহ একটি এক্সিকিউটেবল বাইনারি তৈরি করার জন্য উচ্চ স্তরের পদক্ষেপের বিবরণ রয়েছে। ধাপগুলো হল:

  • ধাপ 1: কম্পাইল করার জন্য সাবগ্রাফ কনফিগার করুন
  • ধাপ 2: সাবগ্রাফ কম্পাইল করতে tf_library বিল্ড ম্যাক্রো ব্যবহার করুন
  • ধাপ 3: সাবগ্রাফ আহ্বান করতে কোড লিখুন
  • ধাপ 4: চূড়ান্ত বাইনারি তৈরি করুন

ধাপ 1: কম্পাইল করার জন্য সাবগ্রাফ কনফিগার করুন

উত্পন্ন ফাংশনের জন্য ইনপুট এবং আউটপুট আর্গুমেন্টের সাথে সম্পর্কিত ফিড এবং আনয়নগুলি সনাক্ত করুন। তারপর একটি tensorflow.tf2xla.Config প্রোটোতে feeds এবং fetches কনফিগার করুন।

# Each feed is a positional input argument for the generated function.  The order
# of each entry matches the order of each input argument.  Here “x_hold” and “y_hold”
# refer to the names of placeholder nodes defined in the graph.
feed {
  id { node_name: "x_hold" }
  shape {
    dim { size: 2 }
    dim { size: 3 }
  }
}
feed {
  id { node_name: "y_hold" }
  shape {
    dim { size: 3 }
    dim { size: 2 }
  }
}

# Each fetch is a positional output argument for the generated function.  The order
# of each entry matches the order of each output argument.  Here “x_y_prod”
# refers to the name of a matmul node defined in the graph.
fetch {
  id { node_name: "x_y_prod" }
}

ধাপ 2: সাবগ্রাফ কম্পাইল করতে tf_library বিল্ড ম্যাক্রো ব্যবহার করুন

এই ধাপটি tf_library বিল্ড ম্যাক্রো ব্যবহার করে গ্রাফটিকে একটি cc_library এ রূপান্তর করে। cc_library গ্রাফ থেকে জেনারেট করা কোড ধারণকারী একটি অবজেক্ট ফাইল নিয়ে গঠিত, সাথে একটি হেডার ফাইল যা জেনারেট করা কোডে অ্যাক্সেস দেয়। tf_library টেনসরফ্লো গ্রাফকে এক্সিকিউটেবল কোডে কম্পাইল করতে tfcompile ব্যবহার করে।

load("//tensorflow/compiler/aot:tfcompile.bzl", "tf_library")

# Use the tf_library macro to compile your graph into executable code.
tf_library(
    # name is used to generate the following underlying build rules:
    # <name>           : cc_library packaging the generated header and object files
    # <name>_test      : cc_test containing a simple test and benchmark
    # <name>_benchmark : cc_binary containing a stand-alone benchmark with minimal deps;
    #                    can be run on a mobile device
    name = "test_graph_tfmatmul",
    # cpp_class specifies the name of the generated C++ class, with namespaces allowed.
    # The class will be generated in the given namespace(s), or if no namespaces are
    # given, within the global namespace.
    cpp_class = "foo::bar::MatMulComp",
    # graph is the input GraphDef proto, by default expected in binary format.  To
    # use the text format instead, just use the ‘.pbtxt’ suffix.  A subgraph will be
    # created from this input graph, with feeds as inputs and fetches as outputs.
    # No Placeholder or Variable ops may exist in this subgraph.
    graph = "test_graph_tfmatmul.pb",
    # config is the input Config proto, by default expected in binary format.  To
    # use the text format instead, use the ‘.pbtxt’ suffix.  This is where the
    # feeds and fetches were specified above, in the previous step.
    config = "test_graph_tfmatmul.config.pbtxt",
)

এই উদাহরণের জন্য GraphDef প্রোটো (test_graph_tfmatmul.pb) তৈরি করতে, make_test_graphs.py চালান এবং --out_dir পতাকা দিয়ে আউটপুট অবস্থান নির্দিষ্ট করুন।

সাধারণ গ্রাফগুলিতে প্রশিক্ষণের মাধ্যমে শেখা ওজনের প্রতিনিধিত্বকারী Variables থাকে, কিন্তু tfcompile Variables ধারণ করে এমন একটি সাবগ্রাফ কম্পাইল করতে পারে না। freeze_graph.py টুলটি একটি চেকপয়েন্ট ফাইলে সংরক্ষিত মান ব্যবহার করে ভেরিয়েবলকে কনস্ট্যান্টে রূপান্তর করে। সুবিধা হিসাবে, tf_library ম্যাক্রো freeze_checkpoint আর্গুমেন্ট সমর্থন করে, যা টুলটি চালায়। আরও উদাহরণের জন্য tensorflow/compiler/aot/tests/BUILD দেখুন।

কম্পাইল করা সাবগ্রাফে দেখানো ধ্রুবকগুলি সরাসরি জেনারেট করা কোডে কম্পাইল করা হয়। উত্পন্ন ফাংশনে ধ্রুবকগুলিকে কম্পাইল-ইন করার পরিবর্তে, কেবল ফিড হিসাবে সেগুলি পাস করুন।

tf_library বিল্ড ম্যাক্রো সম্পর্কে বিস্তারিত জানার জন্য, tfcompile.bzl দেখুন।

অন্তর্নিহিত tfcompile টুলের বিস্তারিত জানার জন্য, tfcompile_main.cc দেখুন।

ধাপ 3: সাবগ্রাফ আহ্বান করতে কোড লিখুন

এই ধাপটি জেনারেট করা কোডটি ব্যবহার করতে পূর্ববর্তী ধাপে tf_library বিল্ড ম্যাক্রো দ্বারা তৈরি হেডার ফাইল ( test_graph_tfmatmul.h ) ব্যবহার করে। শিরোনাম ফাইলটি বিল্ড প্যাকেজের সাথে সম্পর্কিত bazel-bin ডিরেক্টরিতে অবস্থিত, এবং tf_library বিল্ড ম্যাক্রোতে সেট করা নামের বৈশিষ্ট্যের উপর ভিত্তি করে নামকরণ করা হয়েছে। উদাহরণস্বরূপ, test_graph_tfmatmul এর জন্য তৈরি শিরোনাম হবে test_graph_tfmatmul.h । নীচে কি তৈরি হয় তার একটি সংক্ষিপ্ত সংস্করণ। bazel-bin তৈরি করা ফাইলটিতে অতিরিক্ত দরকারী মন্তব্য রয়েছে।

namespace foo {
namespace bar {

// MatMulComp represents a computation previously specified in a
// TensorFlow graph, now compiled into executable code.
class MatMulComp {
 public:
  // AllocMode controls the buffer allocation mode.
  enum class AllocMode {
    ARGS_RESULTS_AND_TEMPS,  // Allocate arg, result and temp buffers
    RESULTS_AND_TEMPS_ONLY,  // Only allocate result and temp buffers
  };

  MatMulComp(AllocMode mode = AllocMode::ARGS_RESULTS_AND_TEMPS);
  ~MatMulComp();

  // Runs the computation, with inputs read from arg buffers, and outputs
  // written to result buffers. Returns true on success and false on failure.
  bool Run();

  // Arg methods for managing input buffers. Buffers are in row-major order.
  // There is a set of methods for each positional argument.
  void** args();

  void set_arg0_data(float* data);
  float* arg0_data();
  float& arg0(size_t dim0, size_t dim1);

  void set_arg1_data(float* data);
  float* arg1_data();
  float& arg1(size_t dim0, size_t dim1);

  // Result methods for managing output buffers. Buffers are in row-major order.
  // Must only be called after a successful Run call. There is a set of methods
  // for each positional result.
  void** results();


  float* result0_data();
  float& result0(size_t dim0, size_t dim1);
};

}  // end namespace bar
}  // end namespace foo

জেনারেট করা C++ ক্লাসটিকে foo::bar নেমস্পেসে MatMulComp বলা হয়, কারণ এটি tf_library ম্যাক্রোতে উল্লেখ করা ছিল cpp_class । সমস্ত জেনারেট করা ক্লাসের একটি অনুরূপ API রয়েছে, শুধুমাত্র পার্থক্য হল আর্গ এবং ফলাফল বাফারগুলি পরিচালনা করার পদ্ধতি। এই পদ্ধতিগুলি বাফারের সংখ্যা এবং প্রকারের উপর ভিত্তি করে পৃথক হয়, যা tf_library ম্যাক্রোতে feed এবং fetch আর্গুমেন্ট দ্বারা নির্দিষ্ট করা হয়েছিল।

জেনারেটেড ক্লাসের মধ্যে তিন ধরনের বাফার ম্যানেজ করা হয়: ইনপুট প্রতিনিধিত্ব করে args , আউটপুট প্রতিনিধিত্ব করে results এবং গণনা সম্পাদনের জন্য অভ্যন্তরীণভাবে ব্যবহৃত অস্থায়ী বাফারগুলির প্রতিনিধিত্বকারী temps । ডিফল্টরূপে, তৈরি করা ক্লাসের প্রতিটি উদাহরণ আপনার জন্য এই সমস্ত বাফারগুলি বরাদ্দ করে এবং পরিচালনা করে। AllocMode কনস্ট্রাক্টর আর্গুমেন্ট এই আচরণ পরিবর্তন করতে ব্যবহার করা যেতে পারে। সমস্ত বাফার 64-বাইটের সীমানায় সারিবদ্ধ।

জেনারেট করা C++ ক্লাস হল XLA দ্বারা উত্পন্ন নিম্ন-স্তরের কোডের চারপাশে একটি মোড়ক।

tfcompile_test.cc এর উপর ভিত্তি করে জেনারেট করা ফাংশন চালু করার উদাহরণ:

#define EIGEN_USE_THREADS
#define EIGEN_USE_CUSTOM_THREAD_POOL

#include <iostream>
#include "third_party/eigen3/unsupported/Eigen/CXX11/Tensor"
#include "third_party/tensorflow/compiler/aot/tests/test_graph_tfmatmul.h" // generated

int main(int argc, char** argv) {
  Eigen::ThreadPool tp(2);  // Size the thread pool as appropriate.
  Eigen::ThreadPoolDevice device(&tp, tp.NumThreads());


  foo::bar::MatMulComp matmul;
  matmul.set_thread_pool(&device);

  // Set up args and run the computation.
  const float args[12] = {1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12};
  std::copy(args + 0, args + 6, matmul.arg0_data());
  std::copy(args + 6, args + 12, matmul.arg1_data());
  matmul.Run();

  // Check result
  if (matmul.result0(0, 0) == 58) {
    std::cout << "Success" << std::endl;
  } else {
    std::cout << "Failed. Expected value 58 at 0,0. Got:"
              << matmul.result0(0, 0) << std::endl;
  }

  return 0;
}

ধাপ 4: চূড়ান্ত বাইনারি তৈরি করুন

এই ধাপটি একটি চূড়ান্ত বাইনারি তৈরি করতে ধাপ 2-এ tf_library দ্বারা তৈরি করা লাইব্রেরি এবং ধাপ 3-এ লেখা কোডকে একত্রিত করে। নীচে একটি উদাহরণ bazel বিল্ড ফাইল রয়েছে।

# Example of linking your binary
# Also see //tensorflow/compiler/aot/tests/BUILD
load("//tensorflow/compiler/aot:tfcompile.bzl", "tf_library")

# The same tf_library call from step 2 above.
tf_library(
    name = "test_graph_tfmatmul",
    ...
)

# The executable code generated by tf_library can then be linked into your code.
cc_binary(
    name = "my_binary",
    srcs = [
        "my_code.cc",  # include test_graph_tfmatmul.h to access the generated header
    ],
    deps = [
        ":test_graph_tfmatmul",  # link in the generated object file
        "//third_party/eigen3",
    ],
    linkopts = [
          "-lpthread",
    ]
)