Witam, wiele światów

Zobacz na TensorFlow.org Uruchom w Google Colab Wyświetl źródło na GitHub Pobierz notatnik

Ten samouczek pokazuje, jak klasyczna sieć neuronowa może nauczyć się poprawiać błędy kalibracji kubitów. Wprowadza Cirq , framework Pythona do tworzenia, edytowania i wywoływania obwodów Noisy Intermediate Scale Quantum (NISQ) i demonstruje, jak Cirq współpracuje z TensorFlow Quantum.

Ustawiać

pip install tensorflow==2.7.0

Zainstaluj TensorFlow Quantum:

pip install tensorflow-quantum
# Update package resources to account for version changes.
import importlib, pkg_resources
importlib.reload(pkg_resources)
<module 'pkg_resources' from '/tmpfs/src/tf_docs_env/lib/python3.7/site-packages/pkg_resources/__init__.py'>

Teraz zaimportuj TensorFlow i zależności modułu:

import tensorflow as tf
import tensorflow_quantum as tfq

import cirq
import sympy
import numpy as np

# visualization tools
%matplotlib inline
import matplotlib.pyplot as plt
from cirq.contrib.svg import SVGCircuit
2022-02-04 12:27:31.677071: E tensorflow/stream_executor/cuda/cuda_driver.cc:271] failed call to cuInit: CUDA_ERROR_NO_DEVICE: no CUDA-capable device is detected

1. Podstawy

1.1 Cirq i sparametryzowane obwody kwantowe

Przed zapoznaniem się z TensorFlow Quantum (TFQ), przyjrzyjmy się podstawom Cirq . Cirq to biblioteka Pythona do obliczeń kwantowych od Google. Używasz go do definiowania obwodów, w tym bramek statycznych i sparametryzowanych.

Cirq używa symboli SymPy do reprezentowania wolnych parametrów.

a, b = sympy.symbols('a b')

Poniższy kod tworzy obwód z dwoma kubitami przy użyciu twoich parametrów:

# Create two qubits
q0, q1 = cirq.GridQubit.rect(1, 2)

# Create a circuit on these qubits using the parameters you created above.
circuit = cirq.Circuit(
    cirq.rx(a).on(q0),
    cirq.ry(b).on(q1), cirq.CNOT(control=q0, target=q1))

SVGCircuit(circuit)
findfont: Font family ['Arial'] not found. Falling back to DejaVu Sans.

SVG

Do oceny obwodów możesz użyć interfejsu cirq.Simulator . Wolne parametry w obwodzie można zastąpić określonymi liczbami, przekazując obiekt cirq.ParamResolver . Poniższy kod oblicza wyjściowy wektor stanu surowego twojego sparametryzowanego obwodu:

# Calculate a state vector with a=0.5 and b=-0.5.
resolver = cirq.ParamResolver({a: 0.5, b: -0.5})
output_state_vector = cirq.Simulator().simulate(circuit, resolver).final_state_vector
output_state_vector
array([ 0.9387913 +0.j        , -0.23971277+0.j        ,

        0.        +0.06120872j,  0.        -0.23971277j], dtype=complex64)

Wektory stanu nie są bezpośrednio dostępne poza symulacją (zwróć uwagę na liczby zespolone w powyższym wyniku). Aby być fizycznie realistycznym, musisz określić pomiar, który konwertuje wektor stanu na liczbę rzeczywistą, zrozumiałą dla klasycznych komputerów. Cirq określa pomiary przy użyciu kombinacji operatorów Pauliego \(\hat{X}\), \(\hat{Y}\)i \(\hat{Z}\). Na przykład poniższy kod mierzy \(\hat{Z}_0\) i \(\frac{1}{2}\hat{Z}_0 + \hat{X}_1\) na wektorze stanu, który właśnie symulowałeś:

z0 = cirq.Z(q0)

qubit_map={q0: 0, q1: 1}

z0.expectation_from_state_vector(output_state_vector, qubit_map).real
0.8775825500488281
z0x1 = 0.5 * z0 + cirq.X(q1)

z0x1.expectation_from_state_vector(output_state_vector, qubit_map).real
-0.04063427448272705

1.2 Obwody kwantowe jako tensory

TensorFlow Quantum (TFQ) udostępnia tfq.convert_to_tensor , funkcję, która konwertuje obiekty Cirq na tensory. Pozwala to na wysyłanie obiektów Cirq do naszych warstw kwantowych i operacji kwantowych . Funkcję można wywołać na listach lub tablicach Cirq Circuits i Cirq Paulis:

# Rank 1 tensor containing 1 circuit.
circuit_tensor = tfq.convert_to_tensor([circuit])

print(circuit_tensor.shape)
print(circuit_tensor.dtype)
(1,)
<dtype: 'string'>

To koduje obiekty Cirq jako tensory tf.string , które w razie potrzeby dekodują operacje tfq .

# Rank 1 tensor containing 2 Pauli operators.
pauli_tensor = tfq.convert_to_tensor([z0, z0x1])
pauli_tensor.shape
TensorShape([2])

1.3 Symulacja obwodu dozowania

TFQ zapewnia metody obliczania wartości oczekiwanych, próbek i wektorów stanu. Na razie skupmy się na wartościach oczekiwanych .

Interfejsem najwyższego poziomu do obliczania wartości oczekiwanych jest warstwa tfq.layers.Expectation , która jest tf.keras.Layer . W najprostszej postaci ta warstwa jest równoważna symulacji sparametryzowanego obwodu przez wiele cirq.ParamResolvers ; jednak TFQ umożliwia grupowanie zgodnie z semantyką TensorFlow, a obwody są symulowane przy użyciu wydajnego kodu C++.

Utwórz grupę wartości, które zastąpią nasze parametry a i b :

batch_vals = np.array(np.random.uniform(0, 2 * np.pi, (5, 2)), dtype=np.float32)

Wsadowe wykonanie obwodu powyżej wartości parametrów w Cirq wymaga pętli:

cirq_results = []
cirq_simulator = cirq.Simulator()

for vals in batch_vals:
    resolver = cirq.ParamResolver({a: vals[0], b: vals[1]})
    final_state_vector = cirq_simulator.simulate(circuit, resolver).final_state_vector
    cirq_results.append(
        [z0.expectation_from_state_vector(final_state_vector, {
            q0: 0,
            q1: 1
        }).real])

print('cirq batch results: \n {}'.format(np.array(cirq_results)))
cirq batch results: 
 [[-0.66652703]
 [ 0.49764055]
 [ 0.67326665]
 [-0.95549959]
 [-0.81297827]]

Ta sama operacja jest uproszczona w TFQ:

tfq.layers.Expectation()(circuit,
                         symbol_names=[a, b],
                         symbol_values=batch_vals,
                         operators=z0)
<tf.Tensor: shape=(5, 1), dtype=float32, numpy=
array([[-0.666526  ],
       [ 0.49764216],
       [ 0.6732664 ],
       [-0.9554999 ],
       [-0.8129788 ]], dtype=float32)>

2. Hybrydowa optymalizacja kwantowo-klasyczna

Teraz, gdy znasz już podstawy, użyjmy TensorFlow Quantum do skonstruowania hybrydowej kwantowo-klasycznej sieci neuronowej . Wytrenujesz klasyczną sieć neuronową do sterowania pojedynczym kubitem. Kontrolka zostanie zoptymalizowana, aby poprawnie przygotować kubit w stanie 0 lub 1 , pokonując symulowany systematyczny błąd kalibracji. Ten rysunek przedstawia architekturę:

Nawet bez sieci neuronowej jest to prosty problem do rozwiązania, ale temat jest podobny do rzeczywistych problemów z kontrolą kwantową, które można rozwiązać za pomocą TFQ. Pokazuje kompleksowy przykład kwantowo-klasycznych obliczeń przy użyciu tfq.layers.ControlledPQC (Parametrized Quantum Circuit) wewnątrz tf.keras.Model .

W celu wdrożenia tego samouczka ta architektura jest podzielona na 3 części:

  • Obwód wejściowy lub obwód punktu danych : Pierwsze trzy bramki \(R\) .
  • Obwód kontrolowany : Pozostałe trzy bramki \(R\) .
  • Sterownik : Klasyczna sieć neuronowa ustawiająca parametry sterowanego obwodu.

2.1 Definicja obwodu kontrolowanego

Zdefiniuj możliwą do nauki rotację pojedynczego bitu, jak pokazano na powyższym rysunku. To będzie odpowiadało naszemu sterowanemu obwodowi.

# Parameters that the classical NN will feed values into.
control_params = sympy.symbols('theta_1 theta_2 theta_3')

# Create the parameterized circuit.
qubit = cirq.GridQubit(0, 0)
model_circuit = cirq.Circuit(
    cirq.rz(control_params[0])(qubit),
    cirq.ry(control_params[1])(qubit),
    cirq.rx(control_params[2])(qubit))

SVGCircuit(model_circuit)

SVG

2.2 Kontroler

Teraz zdefiniuj sieć kontrolera:

# The classical neural network layers.
controller = tf.keras.Sequential([
    tf.keras.layers.Dense(10, activation='elu'),
    tf.keras.layers.Dense(3)
])

Po otrzymaniu partii poleceń sterownik wyprowadza partię sygnałów sterujących dla sterowanego obwodu.

Kontroler jest inicjowany losowo, więc te wyjścia nie są jeszcze przydatne.

controller(tf.constant([[0.0],[1.0]])).numpy()
array([[0.        , 0.        , 0.        ],
       [0.5815686 , 0.21376055, 0.57181627]], dtype=float32)

2.3 Podłącz sterownik do obwodu

Za pomocą tfq podłączyć sterownik do sterowanego obwodu, jako pojedynczy keras.Model .

Więcej informacji na temat tego stylu definicji modelu można znaleźć w przewodniku Keras Functional API .

Najpierw zdefiniuj dane wejściowe do modelu:

# This input is the simulated miscalibration that the model will learn to correct.
circuits_input = tf.keras.Input(shape=(),
                                # The circuit-tensor has dtype `tf.string` 
                                dtype=tf.string,
                                name='circuits_input')

# Commands will be either `0` or `1`, specifying the state to set the qubit to.
commands_input = tf.keras.Input(shape=(1,),
                                dtype=tf.dtypes.float32,
                                name='commands_input')

Następnie zastosuj operacje do tych danych wejściowych, aby zdefiniować obliczenia.

dense_2 = controller(commands_input)

# TFQ layer for classically controlled circuits.
expectation_layer = tfq.layers.ControlledPQC(model_circuit,
                                             # Observe Z
                                             operators = cirq.Z(qubit))
expectation = expectation_layer([circuits_input, dense_2])

Teraz spakuj to obliczenie jako tf.keras.Model :

# The full Keras model is built from our layers.
model = tf.keras.Model(inputs=[circuits_input, commands_input],
                       outputs=expectation)

Architekturę sieci wskazuje poniższy wykres modelu. Porównaj ten wykres modelu z diagramem architektury, aby zweryfikować poprawność.

tf.keras.utils.plot_model(model, show_shapes=True, dpi=70)

png

Ten model przyjmuje dwa wejścia: polecenia dla kontrolera i obwód wejściowy, którego wyjście kontroler próbuje skorygować.

2.4 Zbiór danych

Model próbuje wyprowadzić poprawną poprawną wartość pomiaru \(\hat{Z}\) dla każdego polecenia. Polecenia i prawidłowe wartości są zdefiniowane poniżej.

# The command input values to the classical NN.
commands = np.array([[0], [1]], dtype=np.float32)

# The desired Z expectation value at output of quantum circuit.
expected_outputs = np.array([[1], [-1]], dtype=np.float32)

To nie jest cały zestaw danych treningowych dla tego zadania. Każdy punkt danych w zestawie danych wymaga również obwodu wejściowego.

2.4 Definicja obwodu wejściowego

Poniższy obwód wejściowy definiuje losową błędną kalibrację, którą model nauczy się poprawiać.

random_rotations = np.random.uniform(0, 2 * np.pi, 3)
noisy_preparation = cirq.Circuit(
  cirq.rx(random_rotations[0])(qubit),
  cirq.ry(random_rotations[1])(qubit),
  cirq.rz(random_rotations[2])(qubit)
)
datapoint_circuits = tfq.convert_to_tensor([
  noisy_preparation
] * 2)  # Make two copied of this circuit

Istnieją dwie kopie obwodu, po jednej dla każdego punktu danych.

datapoint_circuits.shape
TensorShape([2])

2.5 Trening

Po zdefiniowaniu danych wejściowych można przetestować model tfq .

model([datapoint_circuits, commands]).numpy()
array([[0.95853525],
       [0.6272128 ]], dtype=float32)

Teraz uruchom standardowy proces uczenia, aby dostosować te wartości do wartości expected_outputs .

optimizer = tf.keras.optimizers.Adam(learning_rate=0.05)
loss = tf.keras.losses.MeanSquaredError()
model.compile(optimizer=optimizer, loss=loss)
history = model.fit(x=[datapoint_circuits, commands],
                    y=expected_outputs,
                    epochs=30,
                    verbose=0)
plt.plot(history.history['loss'])
plt.title("Learning to Control a Qubit")
plt.xlabel("Iterations")
plt.ylabel("Error in Control")
plt.show()

png

Z tego wykresu widać, że sieć neuronowa nauczyła się przezwyciężać systematyczną błędną kalibrację.

2.6 Weryfikacja wyjść

Teraz użyj wytrenowanego modelu, aby poprawić błędy kalibracji kubitów. Z Cirq:

def check_error(command_values, desired_values):
  """Based on the value in `command_value` see how well you could prepare
  the full circuit to have `desired_value` when taking expectation w.r.t. Z."""
  params_to_prepare_output = controller(command_values).numpy()
  full_circuit = noisy_preparation + model_circuit

  # Test how well you can prepare a state to get expectation the expectation
  # value in `desired_values`
  for index in [0, 1]:
    state = cirq_simulator.simulate(
        full_circuit,
        {s:v for (s,v) in zip(control_params, params_to_prepare_output[index])}
    ).final_state_vector
    expt = cirq.Z(qubit).expectation_from_state_vector(state, {qubit: 0}).real
    print(f'For a desired output (expectation) of {desired_values[index]} with'
          f' noisy preparation, the controller\nnetwork found the following '
          f'values for theta: {params_to_prepare_output[index]}\nWhich gives an'
          f' actual expectation of: {expt}\n')


check_error(commands, expected_outputs)
For a desired output (expectation) of [1.] with noisy preparation, the controller
network found the following values for theta: [-0.6788422   0.3395225  -0.59394693]
Which gives an actual expectation of: 0.9171845316886902

For a desired output (expectation) of [-1.] with noisy preparation, the controller
network found the following values for theta: [-5.203663   -0.29528576  3.2887425 ]
Which gives an actual expectation of: -0.9511058330535889

Wartość funkcji straty podczas uczenia daje ogólne pojęcie o tym, jak dobrze model się uczy. Im mniejsza strata, tym wartości oczekiwane w powyższej komórce są desired_values . Jeśli nie przejmujesz się wartościami parametrów, zawsze możesz sprawdzić dane wyjściowe z góry za pomocą tfq :

model([datapoint_circuits, commands])
<tf.Tensor: shape=(2, 1), dtype=float32, numpy=
array([[ 0.91718477],
       [-0.9511056 ]], dtype=float32)>

3 Nauka przygotowywania stanów własnych różnych operatorów

Wybór stanów własnych \(\pm \hat{Z}\) odpowiadający 1 i 0 był arbitralny. Równie dobrze mógłbyś chcieć, aby 1 odpowiadało stanowi własnemu \(+ \hat{Z}\) a 0 odpowiadało stanowi własnemu \(-\hat{X}\) . Jednym ze sposobów osiągnięcia tego jest określenie innego operatora pomiaru dla każdego polecenia, jak pokazano na poniższym rysunku:

Wymaga to użycia tfq.layers.Expectation . Teraz twoje dane wejściowe urosły do ​​trzech obiektów: obwodu, polecenia i operatora. Wynikiem jest nadal wartość oczekiwana.

3.1 Nowa definicja modelu

Rzućmy okiem na model, aby wykonać to zadanie:

# Define inputs.
commands_input = tf.keras.layers.Input(shape=(1),
                                       dtype=tf.dtypes.float32,
                                       name='commands_input')
circuits_input = tf.keras.Input(shape=(),
                                # The circuit-tensor has dtype `tf.string` 
                                dtype=tf.dtypes.string,
                                name='circuits_input')
operators_input = tf.keras.Input(shape=(1,),
                                 dtype=tf.dtypes.string,
                                 name='operators_input')

Oto sieć kontrolera:

# Define classical NN.
controller = tf.keras.Sequential([
    tf.keras.layers.Dense(10, activation='elu'),
    tf.keras.layers.Dense(3)
])

Połącz obwód i kontroler w jeden keras.Model za pomocą tfq :

dense_2 = controller(commands_input)

# Since you aren't using a PQC or ControlledPQC you must append
# your model circuit onto the datapoint circuit tensor manually.
full_circuit = tfq.layers.AddCircuit()(circuits_input, append=model_circuit)
expectation_output = tfq.layers.Expectation()(full_circuit,
                                              symbol_names=control_params,
                                              symbol_values=dense_2,
                                              operators=operators_input)

# Contruct your Keras model.
two_axis_control_model = tf.keras.Model(
    inputs=[circuits_input, commands_input, operators_input],
    outputs=[expectation_output])

3.2 Zbiór danych

Teraz uwzględnisz również operatory, które chcesz mierzyć dla każdego punktu danych, który dostarczasz dla model_circuit :

# The operators to measure, for each command.
operator_data = tfq.convert_to_tensor([[cirq.X(qubit)], [cirq.Z(qubit)]])

# The command input values to the classical NN.
commands = np.array([[0], [1]], dtype=np.float32)

# The desired expectation value at output of quantum circuit.
expected_outputs = np.array([[1], [-1]], dtype=np.float32)

3.3 Szkolenie

Teraz, gdy masz nowe wejścia i wyjścia, możesz ponownie trenować przy użyciu keras.

optimizer = tf.keras.optimizers.Adam(learning_rate=0.05)
loss = tf.keras.losses.MeanSquaredError()

two_axis_control_model.compile(optimizer=optimizer, loss=loss)

history = two_axis_control_model.fit(
    x=[datapoint_circuits, commands, operator_data],
    y=expected_outputs,
    epochs=30,
    verbose=1)
Epoch 1/30
1/1 [==============================] - 0s 320ms/step - loss: 2.4404
Epoch 2/30
1/1 [==============================] - 0s 3ms/step - loss: 1.8713
Epoch 3/30
1/1 [==============================] - 0s 3ms/step - loss: 1.1400
Epoch 4/30
1/1 [==============================] - 0s 3ms/step - loss: 0.5071
Epoch 5/30
1/1 [==============================] - 0s 3ms/step - loss: 0.1611
Epoch 6/30
1/1 [==============================] - 0s 3ms/step - loss: 0.0426
Epoch 7/30
1/1 [==============================] - 0s 3ms/step - loss: 0.0117
Epoch 8/30
1/1 [==============================] - 0s 3ms/step - loss: 0.0032
Epoch 9/30
1/1 [==============================] - 0s 2ms/step - loss: 0.0147
Epoch 10/30
1/1 [==============================] - 0s 3ms/step - loss: 0.0452
Epoch 11/30
1/1 [==============================] - 0s 3ms/step - loss: 0.0670
Epoch 12/30
1/1 [==============================] - 0s 3ms/step - loss: 0.0648
Epoch 13/30
1/1 [==============================] - 0s 3ms/step - loss: 0.0471
Epoch 14/30
1/1 [==============================] - 0s 3ms/step - loss: 0.0289
Epoch 15/30
1/1 [==============================] - 0s 3ms/step - loss: 0.0180
Epoch 16/30
1/1 [==============================] - 0s 3ms/step - loss: 0.0138
Epoch 17/30
1/1 [==============================] - 0s 2ms/step - loss: 0.0130
Epoch 18/30
1/1 [==============================] - 0s 3ms/step - loss: 0.0137
Epoch 19/30
1/1 [==============================] - 0s 3ms/step - loss: 0.0148
Epoch 20/30
1/1 [==============================] - 0s 3ms/step - loss: 0.0156
Epoch 21/30
1/1 [==============================] - 0s 3ms/step - loss: 0.0157
Epoch 22/30
1/1 [==============================] - 0s 3ms/step - loss: 0.0149
Epoch 23/30
1/1 [==============================] - 0s 3ms/step - loss: 0.0135
Epoch 24/30
1/1 [==============================] - 0s 3ms/step - loss: 0.0119
Epoch 25/30
1/1 [==============================] - 0s 3ms/step - loss: 0.0100
Epoch 26/30
1/1 [==============================] - 0s 3ms/step - loss: 0.0082
Epoch 27/30
1/1 [==============================] - 0s 3ms/step - loss: 0.0064
Epoch 28/30
1/1 [==============================] - 0s 3ms/step - loss: 0.0047
Epoch 29/30
1/1 [==============================] - 0s 3ms/step - loss: 0.0034
Epoch 30/30
1/1 [==============================] - 0s 3ms/step - loss: 0.0024
plt.plot(history.history['loss'])
plt.title("Learning to Control a Qubit")
plt.xlabel("Iterations")
plt.ylabel("Error in Control")
plt.show()

png

Funkcja straty spadła do zera.

controller jest dostępny jako samodzielny model. Zadzwoń do kontrolera i sprawdź jego odpowiedź na każdy sygnał polecenia. Prawidłowe porównanie tych wyników z zawartością random_rotations zajęłoby trochę pracy.

controller.predict(np.array([0,1]))
array([[3.6335812 , 1.8470774 , 0.71675825],
       [5.3085413 , 0.08116499, 2.8337662 ]], dtype=float32)