آموزش های پردازش متن TensorFlow دستورالعمل های گام به گام را برای حل مشکلات رایج متن و پردازش زبان طبیعی (NLP) ارائه می دهد.
TensorFlow دو راه حل برای پردازش متن و زبان طبیعی ارائه می دهد: KerasNLP و TensorFlow Text. KerasNLP یک کتابخانه NLP سطح بالا است که شامل تمام آخرین مدلهای مبتنی بر Transformer و همچنین ابزارهای توکنسازی سطح پایینتر است. این راه حل توصیه شده برای اکثر موارد استفاده از NLP است.
اگر نیاز به دسترسی به ابزارهای پردازش متن سطح پایین دارید، می توانید از TensorFlow Text استفاده کنید. TensorFlow Text مجموعهای از عملیاتها و کتابخانهها را فراهم میکند تا به شما در کار با ورودی به شکل متنی مانند رشتههای متن خام یا اسناد کمک کند.
KerasNLP
- شروع کار با KerasNLP : KerasNLP را با انجام تجزیه و تحلیل احساسات در سطوح پیچیدگی تدریجی، از استفاده از یک مدل از پیش آموزش دیده تا ساخت ترانسفورماتور خود از ابتدا یاد بگیرید.
تولید متن
- تولید متن با RNN : متن را با استفاده از RNN مبتنی بر کاراکتر و مجموعه دادهای از نوشتههای شکسپیر تولید کنید.
- ترجمه ماشین عصبی با توجه : آموزش یک مدل دنباله به دنباله (seq2seq) برای ترجمه اسپانیایی به انگلیسی.
- ترجمه ماشین عصبی با ترانسفورماتور و کراس : ایجاد و آموزش یک مدل ترانسفورماتور ترتیب به دنباله برای ترجمه پرتغالی به انگلیسی.
- زیرنویس تصویر با توجه بصری : با استفاده از یک مدل ترانسفورماتور-رمزگشا که با لایههای توجه ساخته شده است، شرح تصویر ایجاد کنید.
طبقه بندی متن
- طبقه بندی متن با BERT : BERT را برای انجام تجزیه و تحلیل احساسات بر روی مجموعه داده ای از نقدهای فیلم IMDb متن ساده تنظیم کنید.
- طبقهبندی متن با RNN : یک RNN را برای انجام تجزیه و تحلیل احساسات در بررسی فیلمهای IMDb آموزش دهید.
- TF.Text Metrics : با معیارهای موجود از طریق TensorFlow Text آشنا شوید. این کتابخانه شامل پیادهسازی معیارهای مشابهت متن مانند ROUGE-L است که میتواند برای ارزیابی خودکار مدلهای تولید متن استفاده شود.
NLP با BERT
- حل وظایف GLUE با استفاده از BERT در TPU : با نحوه تنظیم دقیق BERT برای وظایف از معیار GLUE آشنا شوید.
- تنظیم دقیق مدل BERT : یک مدل BERT را با استفاده از TensorFlow Model Garden تنظیم کنید.
- یادگیری عمیق زبان آگاه از عدم قطعیت با BERT-SNGP : SNGP را برای یک کار درک زبان طبیعی (NLU) اعمال کنید. با ایجاد یک رمزگذار BERT، توانایی مدل NLU را برای شناسایی پرس و جوهای خارج از محدوده بهبود می بخشید.
جاسازی ها
- تعبیههای کلمه : جاسازیهای کلمه خود را با استفاده از یک مدل ساده Keras برای یک کار طبقهبندی احساسات آموزش دهید و سپس آنها را با استفاده از پروژکتور جاسازی تجسم کنید.
- ماتریس لایه جاسازی با شروع گرم : نحوه آموزش "شروع گرم" برای مدل طبقه بندی احساسات متنی را بیاموزید.
- word2vec : یک مدل word2vec را روی یک مجموعه داده کوچک آموزش دهید و جاسازی های آموزش دیده را در پروژکتور جاسازی تجسم کنید.