این صفحه به‌وسیله ‏Cloud Translation API‏ ترجمه شده است.
Switch to English

مفاهیم یادگیری ماشین کوانتومی

آزمایش برتری کوانتومی گوگل از 53 کیوبیت پر سر و صدا استفاده کرد تا نشان دهد می تواند محاسبه را در مدت زمان 200 ثانیه روی یک کامپیوتر کوانتومی انجام دهد که با استفاده از الگوریتم های موجود در بزرگترین رایانه کلاسیک 10 هزار سال طول می کشد. این آغاز دوران محاسبات کوانتومی با مقیاس متوسط ​​Noisy (NISQ) است. انتظار می رود در سال های آینده دستگاه های کوانتومی با ده ها تا صدها کیوبیت پر سر و صدا به واقعیت تبدیل شوند.

محاسبات کوانتومی

محاسبات کوانتومی برای محاسبه مشکلاتی که برای رایانه های کلاسیک دور از دسترس است ، به خصوصیات مکانیک کوانتوم متکی است. یک کامپیوتر کوانتومی از کیوبیت استفاده می کند. کیوبیت مانند بیت به طور منظم در یک کامپیوتر می باشد، اما با توانایی اضافه شده به توان به انطباق و سهم گرفتاری با یکدیگر قرار داده است.

رایانه های کلاسیک عملیات کلاسیک قطعی را انجام می دهند یا می توانند از فرآیندهای احتمالی با استفاده از روش های نمونه برداری تقلید کنند. با مهار سوپراپیسیون و درهم تنیدگی ، رایانه های کوانتومی می توانند عملیات کوانتومی را انجام دهند که شبیه سازی آنها در مقیاس با رایانه های کلاسیک مشکل باشد. ایده های استفاده از محاسبات کوانتومی NISQ شامل بهینه سازی ، شبیه سازی کوانتوم ، رمزنگاری و یادگیری ماشین است.

یادگیری ماشین کوانتومی

یادگیری ماشین کوانتومی (QML) بر اساس دو مفهوم ساخته شده است: داده های کوانتومی و مدل های کلاسیک کوانتومی ترکیبی .

داده های کوانتومی

داده های کوانتومی هر منبع داده ای است که در یک سیستم کوانتومی طبیعی یا مصنوعی رخ دهد. این می تواند داده های تولید شده توسط رایانه کوانتومی باشد ، مانند نمونه هایی که از پردازنده Sycamore برای نشان دادن برتری کوانتومی توسط Google جمع آوری شده است. داده های کوانتومی از هم برهم ریختگی و درهم تنیدگی به نمایش می گذارند ، که منجر به توزیع احتمالات مشترک می شود که برای نمایندگی یا ذخیره سازی به مقدار نمایشی منابع محاسباتی کلاسیک نیاز دارد. آزمایش برتری کوانتومی نشان داد که می توان از توزیع احتمال بسیار مشترک پیچیده 2 ^ 53 فضای هیلبرت نمونه برداری کرد.

داده های کوانتومی تولید شده توسط پردازنده های NISQ پر سر و صدا هستند و معمولاً درست قبل از اندازه گیری در هم گره می خورند. تکنیک های یادگیری ماشین اکتشافی می توانند مدل هایی را ایجاد کنند که استخراج اطلاعات مفید کلاسیک را از داده های پر سر و صدا به حداکثر برسانند. کتابخانه TensorFlow Quantum (TFQ) بدویهایی را برای توسعه مدلهایی فراهم می کند که همبستگی را در داده های کوانتومی از هم گسیخته و تعمیم دهند - فرصتهایی برای بهبود الگوریتمهای کوانتومی موجود یا کشف الگوریتمهای کوانتومی جدید

موارد زیر نمونه هایی از داده های کوانتومی است که می تواند در دستگاه کوانتوم تولید یا شبیه سازی شود:

  • شبیه سازی شیمیایی - اطلاعات مربوط به ساختارهای شیمیایی و دینامیک را با کاربردهای بالقوه در علوم مواد ، شیمی محاسباتی ، زیست محاسباتی و کشف دارو استخراج کنید.
  • شبیه سازی ماده کوانتومی - ابررسانایی دمای بالا یا سایر حالتهای عجیب و غریب ماده را مدل و طراحی کنید که دارای اثرات کوانتومی بسیاری از بدن است.
  • کنترل کوانتوم - مدلهای کلاسیک کوانتومی ترکیبی را می توان برای انجام کنترل بهینه حلقه باز یا بسته ، کالیبراسیون و کاهش خطا آموزش داد. این شامل استراتژی های تشخیص و اصلاح خطا برای دستگاه های کوانتومی و پردازنده های کوانتومی است.
  • شبکه های ارتباطی کوانتومی - با استفاده از برنامه ریزی برای طراحی و ساخت تکرارهای کوانتومی ساختاریافته ، گیرنده های کوانتومی و واحدهای تصفیه ، از دستگاه یادگیری ماشین برای تبعیض در بین حالت های کوانتومی غیر متعامد استفاده کنید.
  • اندازه گیری کوانتوم - اندازه گیری های کوانتومی با دقت بالا مانند سنجش کوانتوم و تصویربرداری کوانتومی ذاتاً بر روی کاوشگرهایی انجام می شود که دستگاه های کوانتومی در مقیاس کوچک هستند و می توانند با استفاده از مدل های کوانتومی متنوع طراحی یا بهبود یابند.

مدلهای کلاسیک کوانتومی ترکیبی

یک مدل کوانتومی می تواند داده ها را با منشا مکانیکی کوانتومی نشان دهد و تعمیم دهد. از آنجا که پردازنده های کوانتومی کوتاه مدت هنوز بسیار کوچک و پر سر و صدا هستند ، مدل های کوانتومی نمی توانند داده های کوانتومی را فقط با استفاده از پردازنده های کوانتومی تعمیم دهند. پردازنده های NISQ برای اثربخشی باید با هم پردازنده های کلاسیک هماهنگ باشند. از آنجا که TensorFlow از رایانش ناهمگن در میان پردازنده ها ، پردازنده های گرافیکی و TPU پشتیبانی می کند ، از آن به عنوان بستر پایه برای آزمایش الگوریتم های کلاسیک کوانتومی ترکیبی استفاده می شود.

از یک شبکه عصبی کوانتومی (QNN) برای توصیف یک مدل محاسباتی کوانتومی پارامتر شده استفاده می شود که بهتر است بر روی رایانه کوانتومی اجرا شود. این اصطلاح اغلب با مدار کوانتومی پارامتر شده (PQC) قابل تعویض است.

پژوهش

در طول دوره NISQ ، الگوریتم های کوانتوم با سرعت های شناخته شده بیش از الگوریتم های کلاسیک - مانند الگوریتم فاکتور Shor یا الگوریتم جستجوی Grover - هنوز در مقیاس معنی دار امکان پذیر نیست.

یک هدف از TensorFlow Quantum کمک به کشف الگوریتم هایی برای دوران NISQ است ، با علاقه خاص به:

  1. برای تقویت الگوریتم های NISQ از یادگیری ماشین کلاسیک استفاده کنید. امید این است که تکنیک های یادگیری ماشین کلاسیک بتوانند درک ما از محاسبات کوانتومی را افزایش دهند. در یادگیری متا برای شبکه های عصبی کوانتومی از طریق شبکه های عصبی عودکننده کلاسیک ، از یک شبکه عصبی راجعه (RNN) استفاده می شود تا کشف شود که بهینه سازی پارامترهای کنترل برای الگوریتم هایی مانند QAOA و VQE کارآمدتر از ساده ترین بهینه سازهای قفسه است. و یادگیری ماشین برای کنترل کوانتوم از یادگیری تقویت کننده برای کمک به کاهش خطاها و تولید دروازه های کوانتومی با کیفیت بالاتر استفاده می کند.
  2. داده های کوانتومی را با مدارهای کوانتومی مدل کنید. در صورت توصیف دقیق منبع داده ، مدل سازی داده های کوانتومی به صورت کلاسیک امکان پذیر است - اما گاهی اوقات این امکان پذیر نیست. برای حل این مشکل ، می توانید بر روی خود رایانه کوانتومی مدل سازی کرده و آمار مهم را اندازه گیری یا مشاهده کنید. شبکه های عصبی کانولوشن کوانتومی یک مدار کوانتومی را نشان می دهد که با ساختاری مشابه شبکه عصبی کانولوشن (CNN) طراحی شده است تا مراحل مختلف توپولوژیکی ماده را تشخیص دهد. کامپیوتر کوانتومی داده ها و مدل را در خود نگه می دارد. پردازنده کلاسیک فقط نمونه های اندازه گیری را از خروجی مدل می بیند و هرگز خود داده ها را نمی بیند. در تغییر عادی پیچیدگی قوی در یک کامپیوتر کوانتومی پر سر و صدا ، نویسندگان یاد می گیرند که اطلاعات مربوط به سیستم های کوانتومی بسیاری از بدن را با استفاده از یک مدل DMERA فشرده کنند.

سایر زمینه های مورد علاقه در یادگیری ماشین کوانتومی عبارتند از: