টিউনার কম্পোনেন্টটি মডেলের জন্য হাইপারপ্যারামিটারগুলিকে সুর করে।
টিউনার কম্পোনেন্ট এবং কেরাসটুনার লাইব্রেরি
টিউনার উপাদান পাইথন ব্যাপক ব্যবহার KerasTuner টিউনিং hyperparameters জন্য API।
উপাদান
টিউনার লাগে:
- tf প্রশিক্ষণ এবং eval জন্য ব্যবহৃত উদাহরণ।
- একজন ব্যবহারকারী মডিউল ফাইল (বা মডিউল এফএন) প্রদান করে যা টিউনিং যুক্তিকে সংজ্ঞায়িত করে, যার মধ্যে মডেল সংজ্ঞা, হাইপারপ্যারামিটার অনুসন্ধান স্থান, উদ্দেশ্য ইত্যাদি।
- Protobuf ট্রেন args এবং Eval args এর সংজ্ঞা।
- (ঐচ্ছিক) Protobuf টিউনিং args এর সংজ্ঞা।
- (Alচ্ছিক) একটি আপস্ট্রিম ট্রান্সফর্ম উপাদান দ্বারা উত্পাদিত গ্রাফ রূপান্তর করুন।
- (Alচ্ছিক) একটি ডেটা স্কিমা স্কিমজেন পাইপলাইন উপাদান দ্বারা তৈরি এবং allyচ্ছিকভাবে ডেভেলপার দ্বারা পরিবর্তিত।
প্রদত্ত ডেটা, মডেল এবং উদ্দেশ্য সহ, টিউনার হাইপারপ্যারামিটারগুলিকে সুর দেয় এবং সেরা ফলাফল নির্গত করে।
নির্দেশাবলী
একজন ব্যবহারকারী মডিউল ফাংশন tuner_fn
নিম্নলিখিত স্বাক্ষর সহ টিউনার জন্য প্রয়োজন বোধ করা হয়:
...
from keras_tuner.engine import base_tuner
TunerFnResult = NamedTuple('TunerFnResult', [('tuner', base_tuner.BaseTuner),
('fit_kwargs', Dict[Text, Any])])
def tuner_fn(fn_args: FnArgs) -> TunerFnResult:
"""Build the tuner using the KerasTuner API.
Args:
fn_args: Holds args as name/value pairs.
- working_dir: working dir for tuning.
- train_files: List of file paths containing training tf.Example data.
- eval_files: List of file paths containing eval tf.Example data.
- train_steps: number of train steps.
- eval_steps: number of eval steps.
- schema_path: optional schema of the input data.
- transform_graph_path: optional transform graph produced by TFT.
Returns:
A namedtuple contains the following:
- tuner: A BaseTuner that will be used for tuning.
- fit_kwargs: Args to pass to tuner's run_trial function for fitting the
model , e.g., the training and validation dataset. Required
args depend on the above tuner's implementation.
"""
...
এই ফাংশনে, আপনি মডেল এবং হাইপারপ্যারামিটার অনুসন্ধান স্পেস উভয়ই সংজ্ঞায়িত করেন এবং টিউনিংয়ের জন্য উদ্দেশ্য এবং অ্যালগরিদম নির্বাচন করুন। টিউনার কম্পোনেন্ট এই মডিউল কোডটিকে ইনপুট হিসেবে নেয়, হাইপারপ্যারামিটারগুলিকে সুর দেয় এবং সেরা ফলাফল নির্গত করে।
প্রশিক্ষক টিউনারের আউটপুট হাইপারপ্যারামিটারগুলিকে ইনপুট হিসাবে নিতে পারে এবং সেগুলিকে তার ব্যবহারকারী মডিউল কোডে ব্যবহার করতে পারে। পাইপলাইন সংজ্ঞা এই মত দেখাচ্ছে:
...
tuner = Tuner(
module_file=module_file, # Contains `tuner_fn`.
examples=transform.outputs['transformed_examples'],
transform_graph=transform.outputs['transform_graph'],
train_args=trainer_pb2.TrainArgs(num_steps=20),
eval_args=trainer_pb2.EvalArgs(num_steps=5))
trainer = Trainer(
module_file=module_file, # Contains `run_fn`.
examples=transform.outputs['transformed_examples'],
transform_graph=transform.outputs['transform_graph'],
schema=schema_gen.outputs['schema'],
# This will be passed to `run_fn`.
hyperparameters=tuner.outputs['best_hyperparameters'],
train_args=trainer_pb2.TrainArgs(num_steps=100),
eval_args=trainer_pb2.EvalArgs(num_steps=5))
...
আপনি যখনই আপনার মডেলটি পুনরায় প্রশিক্ষণ করবেন তখন হাইপারপ্যারামিটারগুলি সুর করতে চান না। একবার আপনি টিউনার ব্যবহার করেছেন hyperparameters একটি ভাল সেট নির্ধারণ করতে, আপনি আপনার পাইপলাইন এবং ব্যবহার থেকে টিউনার অপসারণ করতে পারেন ImporterNode
পূর্ববর্তী প্রশিক্ষণ প্রশিক্ষক ফিড চালানো থেকে টিউনার হস্তনির্মিত বস্তু আমদানি করতে।
hparams_importer = ImporterNode(
instance_name='import_hparams',
# This can be Tuner's output file or manually edited file. The file contains
# text format of hyperparameters (keras_tuner.HyperParameters.get_config())
source_uri='path/to/best_hyperparameters.txt',
artifact_type=HyperParameters)
trainer = Trainer(
...
# An alternative is directly use the tuned hyperparameters in Trainer's user
# module code and set hyperparameters to None here.
hyperparameters = hparams_importer.outputs['result'])
গুগল ক্লাউড প্ল্যাটফর্মে (জিসিপি) টিউনিং
গুগল ক্লাউড প্ল্যাটফর্মে (জিসিপি) চলার সময়, টিউনার উপাদান দুটি পরিষেবার সুবিধা নিতে পারে:
- এআই প্ল্যাটফর্ম ভিজিয়েরের (CloudTuner বাস্তবায়ন এর মাধ্যমে)
- এআই প্ল্যাটফর্ম প্রশিক্ষণ (বিতরণ টিউনিং জন্য একটি একপাল পরিচালক হিসেবে)
হাইপারপ্যারামিটার টিউনিংয়ের ব্যাকএন্ড হিসেবে এআই প্ল্যাটফর্ম ভিজিয়ার
এআই প্ল্যাটফর্ম ভিজিয়েরের একটি পরিচালিত পরিষেবা যা কালো বাক্স অপ্টিমাইজেশান সঞ্চালিত উপর ভিত্তি করে হয় গুগল ভিজিয়েরের প্রযুক্তি।
CloudTuner একটি বাস্তবায়ন KerasTuner যা অধ্যয়ন ব্যাকএন্ড যেমন এআই প্ল্যাটফর্ম ভিজিয়েরের সেবার কথা বলেছেন। যেহেতু CloudTuner একটি উপশ্রেণী হয় keras_tuner.Tuner
, এটি একটি ড্রপ-মধ্যে পরিবর্তে ব্যবহার করা যেতে পারে tuner_fn
মডিউল, এবং TFX টিউনার উপাদান একটি অংশ হিসাবে চালানো।
নীচে যা দেখায় কিভাবে ব্যবহার করার জন্য একটি কোড স্নিপেট হয় CloudTuner
। লক্ষ করুন যে, কনফিগারেশন CloudTuner
যেমন আইটেম যা GCP নির্দিষ্ট হয়, প্রয়োজন project_id
এবং region
।
...
from tensorflow_cloud import CloudTuner
...
def tuner_fn(fn_args: FnArgs) -> TunerFnResult:
"""An implementation of tuner_fn that instantiates CloudTuner."""
...
tuner = CloudTuner(
_build_model,
hyperparameters=...,
...
project_id=..., # GCP Project ID
region=..., # GCP Region where Vizier service is run.
)
...
return TuneFnResult(
tuner=tuner,
fit_kwargs={...}
)
ক্লাউড এআই প্ল্যাটফর্ম প্রশিক্ষণে সমান্তরাল টিউনিং বিতরণ করা শ্রমিকদের ঝাঁক
টিউনার কম্পোনেন্টের অন্তর্নিহিত বাস্তবায়ন হিসাবে কেরাসটুনার ফ্রেমওয়ার্কের সমান্তরালে হাইপারপ্যারামিটার অনুসন্ধান পরিচালনা করার ক্ষমতা রয়েছে। স্টক টিউনার উপাদান, সমান্তরাল একটির বেশি সার্চ কর্মী চালানো ব্যবহার করে পারবে না যদিও Google মেঘ এআই প্ল্যাটফর্ম এক্সটেনশন টিউনার উপাদান , এটা সমান্তরাল টিউনিং চালানোর ক্ষমতা, একটি এআই প্ল্যাটফর্ম প্রশিক্ষণ চাকরির বন্টিত কর্মী পাল হিসেবে ব্যবহার উপলব্ধ ম্যানেজার TuneArgs কনফিগারেশন এই উপাদানটি দেওয়া হয়। এটি স্টক টিউনার কম্পোনেন্টের ড্রপ-ইন রিপ্লেসমেন্ট।
tuner = google_cloud_ai_platform.Tuner(
... # Same kwargs as the above stock Tuner component.
tune_args=proto.TuneArgs(num_parallel_trials=3), # 3-worker parallel
custom_config={
# Configures Cloud AI Platform-specific configs . For for details, see
# https://cloud.google.com/ai-platform/training/docs/reference/rest/v1/projects.jobs#traininginput.
TUNING_ARGS_KEY:
{
'project': ...,
'region': ...,
# Configuration of machines for each master/worker in the flock.
'masterConfig': ...,
'workerConfig': ...,
...
}
})
...
আচরণ এবং এক্সটেনশন টিউনার উপাদানের আউটপুট ব্যতীত একাধিক hyperparameter অনুসন্ধানসমূহ বিভিন্ন শ্রমিক মেশিনে সমান্তরাল মৃত্যুদন্ড কার্যকর করা হয়, স্টক টিউনার উপাদান হিসাবে একই, এবং এর ফলে num_trials
দ্রুত সম্পন্ন করা হবে। এই প্রবণতা বিশেষ করে কার্যকর যখন অনুসন্ধান আলগোরিদিম যেমন embarrassingly parallelizable হয় RandomSearch
। যাইহোক, যদি অনুসন্ধান অ্যালগরিদম পূর্ববর্তী পরীক্ষার ফলাফল থেকে তথ্য ব্যবহার করে, যেমন এআই প্ল্যাটফর্ম ভিজিয়ারে প্রয়োগ করা গুগল ভিজিয়ার অ্যালগরিদম, অতিরিক্ত সমান্তরাল অনুসন্ধান নেতিবাচকভাবে অনুসন্ধানের কার্যকারিতা প্রভাবিত করবে।
লিঙ্ক
আরো বিস্তারিত পাওয়া যায় টিউনার এপিআই রেফারেন্স ।