Google I / O 18 تا 20 مه بازگشت دارد! فضا را ذخیره کنید و برنامه خود را بسازید اکنون ثبت نام کنید

مفاهیم یادگیری ماشین کوانتومی

آزمایش برتری کوانتومی گوگل از 53 کیوبیت پر سر و صدا استفاده کرد تا نشان دهد می تواند محاسبه را در 200 ثانیه بر روی یک کامپیوتر کوانتومی انجام دهد که 10000 سال در بزرگترین رایانه کلاسیک با استفاده از الگوریتم های موجود طول می کشد. این آغاز دوران محاسبات کوانتومی با مقیاس متوسط ​​Noisy (NISQ) است. انتظار می رود در سال های آینده دستگاه های کوانتومی با ده ها تا صدها کیوبیت پر سر و صدا به واقعیت تبدیل شوند.

محاسبات کوانتومی

محاسبات کوانتومی برای محاسبه مشکلاتی که برای کامپیوترهای کلاسیک دور از دسترس است ، به خواص مکانیک کوانتوم متکی است. یک کامپیوتر کوانتومی از کیوبیت استفاده می کند. کیوبیت مانند بیت به طور منظم در یک کامپیوتر می باشد، اما با توانایی اضافه شده به توان به انطباق و سهم گرفتاری با یکدیگر قرار داده است.

رایانه های کلاسیک عملیات کلاسیک قطعی را انجام می دهند یا می توانند از فرآیندهای احتمالی با استفاده از روش های نمونه برداری تقلید کنند. با مهار سوپراپیسیون و درهم تنیدگی ، رایانه های کوانتومی می توانند عملیات کوانتومی را انجام دهند که شبیه سازی آنها در مقیاس با رایانه های کلاسیک دشوار است. ایده های استفاده از محاسبات کوانتومی NISQ شامل بهینه سازی ، شبیه سازی کوانتوم ، رمزنگاری و یادگیری ماشین است.

یادگیری ماشین کوانتومی

یادگیری ماشین کوانتومی (QML) بر اساس دو مفهوم ساخته شده است: داده های کوانتومی و مدل های کلاسیک کوانتومی ترکیبی .

داده های کوانتومی

داده های کوانتومی هر منبع داده ای است که در یک سیستم کوانتومی طبیعی یا مصنوعی رخ دهد. این می تواند داده های تولید شده توسط رایانه کوانتومی باشد ، مانند نمونه هایی که از پردازنده Sycamore برای نشان دادن برتری کوانتومی توسط گوگل جمع آوری شده است. داده های کوانتومی از هم برهم ریختگی و درهم تنیدگی به نمایش می گذارند ، که منجر به توزیع احتمالات مشترک می شود که برای نمایش یا ذخیره سازی به مقدار نمایشی منابع محاسباتی کلاسیک نیاز دارد. آزمایش برتری کوانتومی نشان داد که می توان از یک توزیع احتمال بسیار مشترک پیچیده 2 ^ 53 فضای هیلبرت نمونه برداری کرد.

داده های کوانتومی تولید شده توسط پردازنده های NISQ پر سر و صدا هستند و معمولاً درست قبل از اندازه گیری در هم گره می خورند. تکنیک های یادگیری ماشین اکتشافی می توانند مدل هایی را ایجاد کنند که حداکثر استخراج اطلاعات مفید کلاسیک را از داده های درگیر پر سر و صدا به حداکثر برسانند. کتابخانه TensorFlow Quantum (TFQ) بدویهایی را برای توسعه مدلهایی فراهم می کند که ارتباط متقابل را در داده های کوانتومی از هم گسیخته و تعمیم دهند - فرصتی برای بهبود الگوریتم های کوانتومی موجود یا کشف الگوریتم های کوانتومی جدید.

موارد زیر نمونه هایی از داده های کوانتومی است که می تواند در دستگاه کوانتوم تولید یا شبیه سازی شود:

  • شبیه سازی شیمیایی - اطلاعات مربوط به ساختارهای شیمیایی و دینامیک را با کاربردهای بالقوه در علوم مواد ، شیمی محاسباتی ، زیست محاسباتی و کشف دارو استخراج کنید.
  • شبیه سازی ماده کوانتومی - ابررسانایی دمای بالا یا سایر حالتهای عجیب و غریب ماده را مدل و طراحی کنید که دارای اثرات کوانتومی بسیاری از بدن است.
  • کنترل کوانتوم - مدلهای کلاسیک کوانتومی ترکیبی را می توان برای انجام کنترل بهینه حلقه باز یا بسته ، کالیبراسیون و کاهش خطا آموزش داد. این شامل استراتژی های تشخیص و اصلاح خطا برای دستگاه های کوانتومی و پردازنده های کوانتومی است.
  • شبکه های ارتباطی کوانتومی - با استفاده از برنامه ریزی برای طراحی و ساخت تکرارهای کوانتومی ساختاریافته ، گیرنده های کوانتومی و واحدهای تصفیه ، از دستگاه یادگیری ماشین استفاده کنید تا در بین حالت های کوانتومی غیر متعامد تبعیض قائل شود.
  • اندازه گیری کوانتوم - اندازه گیری های کوانتومی با دقت بالا مانند سنجش کوانتوم و تصویربرداری کوانتومی ذاتاً بر روی کاوشگرهایی انجام می شود که دستگاه های کوانتومی در مقیاس کوچک هستند و می توانند با استفاده از مدل های کوانتومی متنوع طراحی یا بهبود یابند.

مدل های کلاسیک کوانتومی ترکیبی

یک مدل کوانتومی می تواند داده ها را با منشأ مکانیکی کوانتوم نشان دهد و تعمیم دهد. از آنجا که پردازنده های کوانتومی کوتاه مدت هنوز بسیار کوچک و پر سر و صدا هستند ، مدل های کوانتومی نمی توانند داده های کوانتومی را فقط با استفاده از پردازنده های کوانتومی تعمیم دهند. پردازنده های NISQ برای اثربخشی باید با هم پردازنده های کلاسیک هماهنگ باشند. از آنجا که TensorFlow قبلاً از محاسبات ناهمگن در میان پردازنده ها ، پردازنده های گرافیکی و TPU پشتیبانی می کند ، به عنوان بستر پایه برای آزمایش الگوریتم های کلاسیک کوانتومی ترکیبی مورد استفاده قرار می گیرد.

از یک شبکه عصبی کوانتومی (QNN) برای توصیف یک مدل محاسباتی کوانتومی پارامتر شده استفاده می شود که بهتر است بر روی رایانه کوانتومی اجرا شود. این اصطلاح اغلب با مدار کوانتومی پارامتر شده (PQC) قابل تعویض است.

پژوهش

در دوره NISQ ، الگوریتم های کوانتوم با سرعت های شناخته شده بیش از الگوریتم های کلاسیک - مانند الگوریتم فاکتور Shor یا الگوریتم جستجوی Grover - هنوز در مقیاس معنی دار امکان پذیر نیست.

هدف TensorFlow Quantum کمک به کشف الگوریتم هایی برای دوران NISQ است ، با علاقه خاص به:

  1. برای تقویت الگوریتم های NISQ از یادگیری ماشین کلاسیک استفاده کنید. امید این است که تکنیک های یادگیری ماشین کلاسیک بتوانند درک ما از محاسبات کوانتومی را افزایش دهند. در فراآموزی برای شبکه های عصبی کوانتومی از طریق شبکه های عصبی عودکننده کلاسیک ، از یک شبکه عصبی راجعه (RNN) استفاده می شود تا کشف شود که بهینه سازی پارامترهای کنترل برای الگوریتم هایی مانند QAOA و VQE کارآمدتر از ساده ترین بهینه سازهای قفسه است. و یادگیری ماشین برای کنترل کوانتوم با استفاده از یادگیری تقویت کننده به کاهش خطاها و تولید دروازه های کوانتومی با کیفیت بالاتر کمک می کند.
  2. داده های کوانتومی را با مدارهای کوانتومی مدل کنید. در صورت داشتن توصیف دقیق از منبع داده ، مدل سازی داده های کوانتومی به صورت کلاسیک امکان پذیر است - اما گاهی اوقات این امکان پذیر نیست. برای حل این مشکل ، می توانید بر روی خود رایانه کوانتومی مدل سازی کرده و آمار مهم را اندازه گیری یا مشاهده کنید. شبکه های عصبی کانولوشن کوانتومی یک مدار کوانتومی را نشان می دهد که با ساختاری مشابه شبکه عصبی کانولوشن (CNN) طراحی شده است تا مراحل مختلف توپولوژیکی ماده را تشخیص دهد. کامپیوتر کوانتومی داده ها و مدل را در خود نگه می دارد. پردازنده کلاسیک فقط نمونه های اندازه گیری را از خروجی مدل می بیند و هرگز خود داده ها را نمی بیند. در حالت عادی گره خوردن قوی در یک کامپیوتر کوانتومی پر سر و صدا ، نویسندگان یاد می گیرند که اطلاعات مربوط به سیستم های کوانتومی را با استفاده از یک مدل DMERA فشرده کنند.

سایر زمینه های مورد علاقه در یادگیری ماشین کوانتومی عبارتند از: