7 दिसंबर को महिला एमएल संगोष्ठी में भाग लें अभी पंजीकरण करें

टेक्स्ट जनरेशन के लिए फ़ेडरेटेड लर्निंग

संग्रह की मदद से व्यवस्थित रहें अपनी प्राथमिकताओं के आधार पर, कॉन्टेंट को सेव करें और कैटगरी में बांटें.

TensorFlow.org पर देखें Google Colab में चलाएं GitHub पर स्रोत देखें नोटबुक डाउनलोड करें

इस ट्यूटोरियल में अवधारणाओं पर बनाता है के लिए छवि वर्गीकरण संघीय लर्निंग ट्यूटोरियल, और फ़ेडरेटेड सीखने के लिए कई अन्य उपयोगी दृष्टिकोण को दर्शाता है।

विशेष रूप से, हम पहले से प्रशिक्षित केरस मॉडल को लोड करते हैं, और एक (सिम्युलेटेड) विकेन्द्रीकृत डेटासेट पर फ़ेडरेटेड प्रशिक्षण का उपयोग करके इसे परिष्कृत करते हैं। यह कई कारणों से व्यावहारिक रूप से महत्वपूर्ण है। क्रमबद्ध मॉडल का उपयोग करने की क्षमता अन्य एमएल दृष्टिकोणों के साथ फ़ेडरेटेड लर्निंग को मिलाना आसान बनाती है। इसके अलावा, यह पहले से प्रशिक्षित मॉडलों की एक बढ़ती हुई श्रृंखला के उपयोग की अनुमति देता --- उदाहरण के लिए, प्रशिक्षण भाषा मॉडल खरोंच से शायद ही कभी आवश्यक है, जैसा कि कई पूर्व प्रशिक्षित मॉडलों अब व्यापक रूप से उपलब्ध हैं (देखें, जैसे, TF हब )। इसके बजाय, यह एक पूर्व-प्रशिक्षित मॉडल से शुरू करने के लिए और अधिक समझ में आता है, और एक विशेष एप्लिकेशन के लिए विकेंद्रीकृत डेटा की विशेष विशेषताओं के अनुकूल, फ़ेडरेटेड लर्निंग का उपयोग करके इसे परिष्कृत करता है।

इस ट्यूटोरियल के लिए, हम एक आरएनएन से शुरू करते हैं जो एएससीआईआई वर्ण उत्पन्न करता है, और इसे फ़ेडरेटेड लर्निंग के माध्यम से परिष्कृत करता है। हम यह भी दिखाते हैं कि कैसे अंतिम वजन को मूल केरस मॉडल में वापस फीड किया जा सकता है, जिससे मानक टूल का उपयोग करके आसान मूल्यांकन और टेक्स्ट जनरेशन की अनुमति मिलती है।

!pip install --quiet --upgrade tensorflow-federated-nightly
!pip install --quiet --upgrade nest-asyncio

import nest_asyncio
nest_asyncio.apply()
import collections
import functools
import os
import time

import numpy as np
import tensorflow as tf
import tensorflow_federated as tff

np.random.seed(0)

# Test the TFF is working:
tff.federated_computation(lambda: 'Hello, World!')()
b'Hello, World!'

एक पूर्व-प्रशिक्षित मॉडल लोड करें

हम एक मॉडल है कि TensorFlow ट्यूटोरियल निम्नलिखित पूर्व प्रशिक्षित किया गया था लोड पाठ उत्सुक निष्पादन के साथ एक RNN का उपयोग कर पीढ़ी । हालांकि, बल्कि पर प्रशिक्षण से शेक्सपियर का पूरा काम करता है , हम चार्ल्स डिकेंस 'से पाठ पर मॉडल पहले से प्रशिक्षित दो शहरों की कथा और ए क्रिसमस कैरोल

शब्दावली का विस्तार करने के अलावा, हमने मूल ट्यूटोरियल को संशोधित नहीं किया है, इसलिए यह प्रारंभिक मॉडल अत्याधुनिक नहीं है, लेकिन यह उचित भविष्यवाणियां करता है और हमारे ट्यूटोरियल उद्देश्यों के लिए पर्याप्त है। अंतिम मॉडल के साथ बचा लिया गया था tf.keras.models.save_model(include_optimizer=False)

TFF द्वारा प्रदान किए गए डेटा के फ़ेडरेटेड संस्करण का उपयोग करते हुए, हम इस ट्यूटोरियल में शेक्सपियर के लिए इस मॉडल को फ़ाइन-ट्यून करने के लिए फ़ेडरेटेड लर्निंग का उपयोग करेंगे।

वोकैब लुकअप टेबल जेनरेट करें

# A fixed vocabularly of ASCII chars that occur in the works of Shakespeare and Dickens:
vocab = list('dhlptx@DHLPTX $(,048cgkoswCGKOSW[_#\'/37;?bfjnrvzBFJNRVZ"&*.26:\naeimquyAEIMQUY]!%)-159\r')

# Creating a mapping from unique characters to indices
char2idx = {u:i for i, u in enumerate(vocab)}
idx2char = np.array(vocab)

पूर्व-प्रशिक्षित मॉडल को लोड करें और कुछ पाठ उत्पन्न करें

def load_model(batch_size):
  urls = {
      1: 'https://storage.googleapis.com/tff-models-public/dickens_rnn.batch1.kerasmodel',
      8: 'https://storage.googleapis.com/tff-models-public/dickens_rnn.batch8.kerasmodel'}
  assert batch_size in urls, 'batch_size must be in ' + str(urls.keys())
  url = urls[batch_size]
  local_file = tf.keras.utils.get_file(os.path.basename(url), origin=url)  
  return tf.keras.models.load_model(local_file, compile=False)
def generate_text(model, start_string):
  # From https://www.tensorflow.org/tutorials/sequences/text_generation
  num_generate = 200
  input_eval = [char2idx[s] for s in start_string]
  input_eval = tf.expand_dims(input_eval, 0)
  text_generated = []
  temperature = 1.0

  model.reset_states()
  for i in range(num_generate):
    predictions = model(input_eval)
    predictions = tf.squeeze(predictions, 0)
    predictions = predictions / temperature
    predicted_id = tf.random.categorical(
        predictions, num_samples=1)[-1, 0].numpy()
    input_eval = tf.expand_dims([predicted_id], 0)
    text_generated.append(idx2char[predicted_id])

  return (start_string + ''.join(text_generated))
# Text generation requires a batch_size=1 model.
keras_model_batch1 = load_model(batch_size=1)
print(generate_text(keras_model_batch1, 'What of TensorFlow Federated, you ask? '))
Downloading data from https://storage.googleapis.com/tff-models-public/dickens_rnn.batch1.kerasmodel
16195584/16193984 [==============================] - 0s 0us/step
16203776/16193984 [==============================] - 0s 0us/step
What of TensorFlow Federated, you ask? Sall
yesterday. Received the Bailey."

"Mr. Lorry, grimmering himself, or low varked thends the winter, and the eyes of Monsieur
Defarge. "Let his mind, hon in his
life and message; four declare

फेडरेटेड शेक्सपियर डेटा को लोड और प्रीप्रोसेस करें

tff.simulation.datasets पैकेज डेटासेट कि "ग्राहकों", में विभाजित हैं की एक किस्म प्रदान जहां एक विशेष उपकरण है, जो फ़ेडरेटेड सीखने में भाग लेने सकता है पर एक डाटासेट करने के लिए प्रत्येक ग्राहक के मेल खाती है।

ये डेटासेट वास्तविक गैर-आईआईडी डेटा वितरण प्रदान करते हैं जो वास्तविक विकेन्द्रीकृत डेटा पर प्रशिक्षण की चुनौतियों का अनुकरण करते हैं। इस डेटा के पूर्व प्रसंस्करण से कुछ से उपकरणों का उपयोग किया गया था पत्ता परियोजना ( GitHub )।

train_data, test_data = tff.simulation.datasets.shakespeare.load_data()

द्वारा प्रदान की डेटासेट shakespeare.load_data() तार का एक अनुक्रम से मिलकर Tensors , एक शेक्सपियर के नाटक में एक विशेष चरित्र द्वारा बोली जाने वाली प्रत्येक पंक्ति के लिए एक। ग्राहक कुंजी, चरित्र के नाम के साथ शामिल हो गए नाटक के नाम से मिलकर बनता है तो उदाहरण के लिए MUCH_ADO_ABOUT_NOTHING_OTHELLO खेलने में काफी हलचल कुछ भी नहीं है के बारे में में चरित्र ओथेलो के लिए लाइनों से मेल खाती है। ध्यान दें कि एक वास्तविक फ़ेडरेटेड लर्निंग परिदृश्य में क्लाइंट को कभी भी आईडी द्वारा पहचाना या ट्रैक नहीं किया जाता है, लेकिन सिमुलेशन के लिए कीड डेटासेट के साथ काम करना उपयोगी होता है।

यहाँ, उदाहरण के लिए, हम किंग लियर के कुछ डेटा देख सकते हैं:

# Here the play is "The Tragedy of King Lear" and the character is "King".
raw_example_dataset = train_data.create_tf_dataset_for_client(
    'THE_TRAGEDY_OF_KING_LEAR_KING')
# To allow for future extensions, each entry x
# is an OrderedDict with a single key 'snippets' which contains the text.
for x in raw_example_dataset.take(2):
  print(x['snippets'])
tf.Tensor(b'', shape=(), dtype=string)
tf.Tensor(b'What?', shape=(), dtype=string)

अब हम का उपयोग tf.data.Dataset परिवर्तनों चार RNN ऊपर लोड प्रशिक्षण के लिए इस डेटा तैयार करने के लिए।

# Input pre-processing parameters
SEQ_LENGTH = 100
BATCH_SIZE = 8
BUFFER_SIZE = 100  # For dataset shuffling
# Construct a lookup table to map string chars to indexes,
# using the vocab loaded above:
table = tf.lookup.StaticHashTable(
    tf.lookup.KeyValueTensorInitializer(
        keys=vocab, values=tf.constant(list(range(len(vocab))),
                                       dtype=tf.int64)),
    default_value=0)


def to_ids(x):
  s = tf.reshape(x['snippets'], shape=[1])
  chars = tf.strings.bytes_split(s).values
  ids = table.lookup(chars)
  return ids


def split_input_target(chunk):
  input_text = tf.map_fn(lambda x: x[:-1], chunk)
  target_text = tf.map_fn(lambda x: x[1:], chunk)
  return (input_text, target_text)


def preprocess(dataset):
  return (
      # Map ASCII chars to int64 indexes using the vocab
      dataset.map(to_ids)
      # Split into individual chars
      .unbatch()
      # Form example sequences of SEQ_LENGTH +1
      .batch(SEQ_LENGTH + 1, drop_remainder=True)
      # Shuffle and form minibatches
      .shuffle(BUFFER_SIZE).batch(BATCH_SIZE, drop_remainder=True)
      # And finally split into (input, target) tuples,
      # each of length SEQ_LENGTH.
      .map(split_input_target))

नोट मूल दृश्यों के और ऊपर बैचों के गठन में गठन में, हम का उपयोग करें कि drop_remainder=True सादगी के लिए। इस का मतलब है किसी भी वर्ण (ग्राहकों) की जरूरत नहीं है कि कम से कम है कि (SEQ_LENGTH + 1) * BATCH_SIZE पाठ की वर्ण खाली डेटासेट होगा। इसे संबोधित करने के लिए एक विशिष्ट दृष्टिकोण एक विशेष टोकन के साथ बैचों को पैड करना होगा, और फिर पैडिंग टोकन को ध्यान में न रखने के लिए नुकसान को मुखौटा करना होगा।

इस उदाहरण कुछ हद तक मुश्किल होगा, इसलिए इस ट्यूटोरियल के लिए हम केवल पूर्ण बैचों का उपयोग करें, के रूप में मानक ट्यूटोरियल । हालाँकि, फ़ेडरेटेड सेटिंग में यह समस्या अधिक महत्वपूर्ण है, क्योंकि कई उपयोगकर्ताओं के पास छोटे डेटासेट हो सकते हैं।

अब हम हमारी preprocess कर सकते हैं raw_example_dataset , और प्रकार की जाँच करें:

example_dataset = preprocess(raw_example_dataset)
print(example_dataset.element_spec)
(TensorSpec(shape=(8, 100), dtype=tf.int64, name=None), TensorSpec(shape=(8, 100), dtype=tf.int64, name=None))

मॉडल को संकलित करें और प्रीप्रोसेस्ड डेटा पर परीक्षण करें

हम एक uncompiled keras मॉडल भरी हुई है, लेकिन चलाने के लिए keras_model.evaluate , हम एक नुकसान और मीट्रिक के साथ यह संकलन करने की जरूरत है। हम एक ऑप्टिमाइज़र में भी कंपाइल करेंगे, जिसका उपयोग फ़ेडरेटेड लर्निंग में ऑन-डिवाइस ऑप्टिमाइज़र के रूप में किया जाएगा।

मूल ट्यूटोरियल में चार-स्तरीय सटीकता नहीं थी (भविष्यवाणियों का अंश जहां उच्चतम संभावना सही अगले चार पर रखी गई थी)। यह एक उपयोगी मीट्रिक है, इसलिए हम इसे जोड़ते हैं। हालांकि, हम क्योंकि हमारी भविष्यवाणियों रैंक 3 (से प्रत्येक के लिए logits का एक वेक्टर है इस के लिए एक नई मीट्रिक वर्ग को परिभाषित करने की जरूरत है BATCH_SIZE * SEQ_LENGTH भविष्यवाणियों), और SparseCategoricalAccuracy केवल रैंक 2 भविष्यवाणियों की उम्मीद है।

class FlattenedCategoricalAccuracy(tf.keras.metrics.SparseCategoricalAccuracy):

  def __init__(self, name='accuracy', dtype=tf.float32):
    super().__init__(name, dtype=dtype)

  def update_state(self, y_true, y_pred, sample_weight=None):
    y_true = tf.reshape(y_true, [-1, 1])
    y_pred = tf.reshape(y_pred, [-1, len(vocab), 1])
    return super().update_state(y_true, y_pred, sample_weight)

अब हम एक मॉडल संकलन, और हमारे पर यह मूल्यांकन कर सकते हैं example_dataset

BATCH_SIZE = 8  # The training and eval batch size for the rest of this tutorial.
keras_model = load_model(batch_size=BATCH_SIZE)
keras_model.compile(
    loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True),
    metrics=[FlattenedCategoricalAccuracy()])

# Confirm that loss is much lower on Shakespeare than on random data
loss, accuracy = keras_model.evaluate(example_dataset.take(5), verbose=0)
print(
    'Evaluating on an example Shakespeare character: {a:3f}'.format(a=accuracy))

# As a sanity check, we can construct some completely random data, where we expect
# the accuracy to be essentially random:
random_guessed_accuracy = 1.0 / len(vocab)
print('Expected accuracy for random guessing: {a:.3f}'.format(
    a=random_guessed_accuracy))
random_indexes = np.random.randint(
    low=0, high=len(vocab), size=1 * BATCH_SIZE * (SEQ_LENGTH + 1))
data = collections.OrderedDict(
    snippets=tf.constant(
        ''.join(np.array(vocab)[random_indexes]), shape=[1, 1]))
random_dataset = preprocess(tf.data.Dataset.from_tensor_slices(data))
loss, accuracy = keras_model.evaluate(random_dataset, steps=10, verbose=0)
print('Evaluating on completely random data: {a:.3f}'.format(a=accuracy))
Downloading data from https://storage.googleapis.com/tff-models-public/dickens_rnn.batch8.kerasmodel
16195584/16193984 [==============================] - 0s 0us/step
16203776/16193984 [==============================] - 0s 0us/step
Evaluating on an example Shakespeare character: 0.402000
Expected accuracy for random guessing: 0.012
Evaluating on completely random data: 0.011

फ़ेडरेटेड लर्निंग के साथ मॉडल को फ़ाइन-ट्यून करें

TFF सभी TensorFlow संगणनाओं को क्रमबद्ध करता है ताकि वे संभावित रूप से एक गैर-पायथन वातावरण में चलाए जा सकें (भले ही इस समय, केवल पायथन में लागू सिमुलेशन रनटाइम उपलब्ध है)। भले ही हम उत्सुक मोड, (TF 2.0) में चल रहे हैं, वर्तमान में TFF को धारावाहिक TensorFlow एक "के संदर्भ के अंदर आवश्यक ऑप्स का निर्माण करके संगणना with tf.Graph.as_default() " बयान। इस प्रकार, हमें एक फ़ंक्शन प्रदान करने की आवश्यकता है जिसका उपयोग TFF हमारे मॉडल को उस ग्राफ़ में पेश करने के लिए कर सकता है जिसे वह नियंत्रित करता है। हम इसे इस प्रकार करते हैं:

# Clone the keras_model inside `create_tff_model()`, which TFF will
# call to produce a new copy of the model inside the graph that it will 
# serialize. Note: we want to construct all the necessary objects we'll need 
# _inside_ this method.
def create_tff_model():
  # TFF uses an `input_spec` so it knows the types and shapes
  # that your model expects.
  input_spec = example_dataset.element_spec
  keras_model_clone = tf.keras.models.clone_model(keras_model)
  return tff.learning.from_keras_model(
      keras_model_clone,
      input_spec=input_spec,
      loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True),
      metrics=[FlattenedCategoricalAccuracy()])

अब हम एक संघीय औसत का सतत प्रक्रिया है, जो हम मॉडल को बेहतर बनाने के लिए प्रयोग करेंगे निर्माण करने के लिए तैयार कर रहे हैं (संघीय औसत का एल्गोरिथ्म पर जानकारी के लिए, कागज को देखने के विकेन्द्रीकृत डाटा से दीप नेटवर्क के संचार कुशल लर्निंग )।

हम फ़ेडरेटेड प्रशिक्षण के प्रत्येक दौर के बाद मानक (गैर-संघीय) मूल्यांकन करने के लिए एक संकलित केरस मॉडल का उपयोग करते हैं। सिम्युलेटेड फ़ेडरेटेड लर्निंग करते समय यह शोध उद्देश्यों के लिए उपयोगी होता है और एक मानक परीक्षण डेटासेट होता है।

एक यथार्थवादी उत्पादन सेटिंग में इसी तकनीक का उपयोग फ़ेडरेटेड लर्निंग के साथ प्रशिक्षित मॉडल लेने और परीक्षण या गुणवत्ता आश्वासन उद्देश्यों के लिए एक केंद्रीकृत बेंचमार्क डेटासेट पर उनका मूल्यांकन करने के लिए किया जा सकता है।

# This command builds all the TensorFlow graphs and serializes them: 
fed_avg = tff.learning.build_federated_averaging_process(
    model_fn=create_tff_model,
    client_optimizer_fn=lambda: tf.keras.optimizers.SGD(lr=0.5))

यहां सबसे आसान संभव लूप है, जहां हम एक बैच पर एक क्लाइंट पर एक राउंड के लिए फ़ेडरेटेड औसत चलाते हैं:

state = fed_avg.initialize()
state, metrics = fed_avg.next(state, [example_dataset.take(5)])
train_metrics = metrics['train']
print('loss={l:.3f}, accuracy={a:.3f}'.format(
    l=train_metrics['loss'], a=train_metrics['accuracy']))
loss=4.403, accuracy=0.132

अब थोड़ा और दिलचस्प प्रशिक्षण और मूल्यांकन लूप लिखते हैं।

ताकि यह अनुकरण अभी भी अपेक्षाकृत तेज़ी से चले, हम प्रत्येक दौर में समान तीन ग्राहकों को प्रशिक्षित करते हैं, प्रत्येक के लिए केवल दो मिनीबैच पर विचार करते हैं।

def data(client, source=train_data):
  return preprocess(source.create_tf_dataset_for_client(client)).take(5)


clients = [
    'ALL_S_WELL_THAT_ENDS_WELL_CELIA', 'MUCH_ADO_ABOUT_NOTHING_OTHELLO',
]

train_datasets = [data(client) for client in clients]

# We concatenate the test datasets for evaluation with Keras by creating a 
# Dataset of Datasets, and then identity flat mapping across all the examples.
test_dataset = tf.data.Dataset.from_tensor_slices(
    [data(client, test_data) for client in clients]).flat_map(lambda x: x)

मॉडल के आधार पर उत्पादन की प्रारंभिक अवस्था fed_avg.initialize() , Keras मॉडल, नहीं वजन कि लोड किया गया के लिए यादृच्छिक initializers के आधार पर के बाद से है clone_model() वजन नहीं क्लोन करता है। पूर्व-प्रशिक्षित मॉडल से प्रशिक्षण शुरू करने के लिए, हम सीधे लोड किए गए मॉडल से मॉडल भार को सर्वर स्थिति में सेट करते हैं।

NUM_ROUNDS = 5

# The state of the FL server, containing the model and optimization state.
state = fed_avg.initialize()

# Load our pre-trained Keras model weights into the global model state.
state = tff.learning.state_with_new_model_weights(
    state,
    trainable_weights=[v.numpy() for v in keras_model.trainable_weights],
    non_trainable_weights=[
        v.numpy() for v in keras_model.non_trainable_weights
    ])


def keras_evaluate(state, round_num):
  # Take our global model weights and push them back into a Keras model to
  # use its standard `.evaluate()` method.
  keras_model = load_model(batch_size=BATCH_SIZE)
  keras_model.compile(
      loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True),
      metrics=[FlattenedCategoricalAccuracy()])
  state.model.assign_weights_to(keras_model)
  loss, accuracy = keras_model.evaluate(example_dataset, steps=2, verbose=0)
  print('\tEval: loss={l:.3f}, accuracy={a:.3f}'.format(l=loss, a=accuracy))


for round_num in range(NUM_ROUNDS):
  print('Round {r}'.format(r=round_num))
  keras_evaluate(state, round_num)
  state, metrics = fed_avg.next(state, train_datasets)
  train_metrics = metrics['train']
  print('\tTrain: loss={l:.3f}, accuracy={a:.3f}'.format(
      l=train_metrics['loss'], a=train_metrics['accuracy']))

print('Final evaluation')
keras_evaluate(state, NUM_ROUNDS + 1)
Round 0
    Eval: loss=3.324, accuracy=0.401
    Train: loss=4.360, accuracy=0.155
Round 1
    Eval: loss=4.361, accuracy=0.049
    Train: loss=4.235, accuracy=0.164
Round 2
    Eval: loss=4.219, accuracy=0.177
    Train: loss=4.081, accuracy=0.221
Round 3
    Eval: loss=4.080, accuracy=0.174
    Train: loss=3.940, accuracy=0.226
Round 4
    Eval: loss=3.991, accuracy=0.176
    Train: loss=3.840, accuracy=0.226
Final evaluation
    Eval: loss=3.909, accuracy=0.171

डिफ़ॉल्ट परिवर्तनों के साथ, हमने एक बड़ा बदलाव लाने के लिए पर्याप्त प्रशिक्षण नहीं किया है, लेकिन यदि आप शेक्सपियर के अधिक डेटा पर अधिक समय तक प्रशिक्षण लेते हैं, तो आपको अद्यतन मॉडल के साथ उत्पन्न पाठ की शैली में अंतर देखना चाहिए:

# Set our newly trained weights back in the originally created model.
keras_model_batch1.set_weights([v.numpy() for v in keras_model.weights])
# Text generation requires batch_size=1
print(generate_text(keras_model_batch1, 'What of TensorFlow Federated, you ask? '))
What of TensorFlow Federated, you ask? Shalways, I will call your
compet with any city brought their faces uncompany," besumed him. "When he
sticked Madame Defarge pushed the lamps.

"Have I often but no unison. She had probably come,

सुझाए गए एक्सटेंशन

यह ट्यूटोरियल सिर्फ पहला कदम है! आप इस नोटबुक का विस्तार करने का प्रयास कैसे कर सकते हैं, इसके लिए यहां कुछ उपाय दिए गए हैं:

  • एक अधिक यथार्थवादी प्रशिक्षण लूप लिखें जहां आप बेतरतीब ढंग से प्रशिक्षित करने के लिए ग्राहकों का नमूना लेते हैं।
  • "उपयोग .repeat(NUM_EPOCHS) " ग्राहक डेटासेट पर (के रूप में जैसे, स्थानीय प्रशिक्षण के कई अवधियों को प्रयास करने के लिए McMahan एट। अल। )। यह भी देखें छवि वर्गीकरण के लिए संघीय लर्निंग जो ऐसा करता है।
  • बदले compile() क्लाइंट पर विभिन्न अनुकूलन एल्गोरिथम का उपयोग कर के साथ प्रयोग करने के लिए आदेश।
  • प्रयास करें server_optimizer को तर्क build_federated_averaging_process सर्वर पर मॉडल अद्यतन को लागू करने के लिए अलग अलग एल्गोरिदम कोशिश करने के लिए।
  • प्रयास करें client_weight_fn करने के लिए तर्क build_federated_averaging_process ग्राहकों के विभिन्न weightings के प्रयास करने के लिए। ग्राहक पर उदाहरण की संख्या से डिफ़ॉल्ट भार ग्राहक अपडेट, लेकिन आप क्या कर सकते हैं जैसे client_weight_fn=lambda _: tf.constant(1.0)