TensorFlow Probability کتابخانه ای برای استدلال احتمالی و تجزیه و تحلیل آماری در TensorFlow است. به عنوان بخشی از اکوسیستم TensorFlow، TensorFlow Probability یکپارچهسازی روشهای احتمالی با شبکههای عمیق، استنتاج مبتنی بر گرادیان با استفاده از تمایز خودکار، و مقیاسپذیری برای مجموعه دادهها و مدلهای بزرگ با شتاب سختافزاری (GPU) و محاسبات توزیعشده را فراهم میکند.
برای دریافت با احتمال TensorFlow آغاز شده، نگاه کنید به راهنمای نصب و مشاهده آموزش های نوت بوک پایتون .
اجزاء
ابزارهای یادگیری ماشین احتمالی ما به صورت زیر ساختار یافته اند:
لایه 0: TensorFlow
عملیات عددی -در طور خاص، LinearOperator
کلاس را قادر می سازد پیاده سازی رایگان ماتریس است که می تواند یک ساختار خاص (مورب، کم رتبه، و غیره) برای محاسبات کارآمد بهره برداری. این ساخته شده است و توسط تیم احتمال TensorFlow و بخشی از است tf.linalg
در TensorFlow هسته ای است.
لایه 1: بلوک های ساختمانی آماری
- توزیع (
tfp.distributions
): مجموعه بزرگی از توزیع های احتمال و آمار مرتبط با دسته ای و پخش معناشناسی. - Bijectors (
tfp.bijectors
): برگشت پذیر و تحولات ساخت مجموع متغیرهای تصادفی. Bijectors ارائه طبقه ثروتمند از توزیعهای تبدیل شده است، از نمونه های کلاسیک مانند توزیع لوگ نرمال به مدل های یادگیری عمیق پیچیده مانند جریان خود کاهشی پوشانده .
لایه 2: ساختمان مدل
- توزیع مشترک (به عنوان مثال،
tfp.distributions.JointDistributionSequential
): توزیع مشترک بیش از یک یا توزیع تر احتمالا-وابسته است. برای معرفی به مدل سازی با بهره وری کل عوامل راJointDistribution
بازدید کنندگان، چک کردن این COLAB - لایه های احتمالاتی (
tfp.layers
): لایه شبکه عصبی با عدم قطعیت در توابع آنها نشان دهنده، گسترش لایه TensorFlow.
لایه 3: استنتاج احتمالی
- زنجیره مارکوف مونت کارلو (
tfp.mcmc
): الگوریتم برای تقریب انتگرال از طریق نمونه برداری. شامل هامیلتونی مونت کارلو ، تصادفی پیاده روی کلانشهر-هیستینگز، و توانایی مغز انتقال ساخت سفارشی. - تغییرات استنتاج (
tfp.vi
): الگوریتم برای تقریب انتگرال از طریق بهینه سازی. - بهینه (
tfp.optimizer
): روش های بهینه سازی تصادفی، گسترش TensorFlow بهینه. شامل تصادفی گرادیان لانگوین دینامیک . - مونت کارلو (
tfp.monte_carlo
): ابزار برای محاسبه انتظارات مونت کارلو.
TensorFlow Probability در حال توسعه فعال است و رابط ها ممکن است تغییر کنند.
مثال ها
علاوه بر آموزش نوت بوک پایتون ذکر شده در ناوبری، برخی از اسکریپت به عنوان مثال در دسترس وجود دارد:
- تغییرات خودرمزگذار یادگیری با یک کد پنهان و استنتاج تغییرات -Representation.
- بردار تدریجی خودرمزگذار یادگیری نمایندگی -Discrete با کوانتیزاسیون برداری.
- بیزی شبکه های عصبی شبکه های -Neural با عدم قطعیت بیش از وزن خود را.
- بیزی رگرسیون لجستیک استنتاج -Bayesian برای طبقه بندی دودویی.
مشکلات را گزارش دهید
گزارش اشکالات و یا درخواست ویژگی با استفاده از ردیاب TensorFlow مسئله احتمال .